Stages de la spécialité SAR

La procédure précise pour élaborer la convention de stage a été expliqué lors de la réunion de présentation. Commencez par contacter les proposeurs de stages, et en cas d’acceptation informez-nous de votre candidature en cliquant sur le formulaire disponible à gauche de la page décrivant le stage qui vous intéresse.

Liste chronologique des 84 sujets proposés
les sujets sur fond coloré sont déjà attribués
L

Pour passer du mode abrégé au mode étendu, cliquer sur le bouton ci-dessus.
Pour être prévenu des stages annoncés tardivement, utiliser le fil RSS: il est spécifique à cette rubrique.
Pour ne lister que les stages associés à un mot-clé, cliquer sur une occurrence des mot-clés apparaissant en mode étendu sous le titre des stages.

1. Nouveau stage en deep learning et audio


Site : Advanced deep learning models for audio event detection in domestic environment
Lieu : Technicolor R&I Rennes
Encadrant : Ngoc Q. K. Duong quang-khanh-ngoc.duong@technicolor.com
Dates :Flexible, starting from February, March or April 2019 for 5-6 months
Rémunération :1200
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

The internship addresses detection of audio events in domestic environment for emerging real life applications to be implemented within a set-top-box. This task, which has been benchmarked in DCASE challenges (see [1] for the DCASE 2018), has attracted a lot of attention in the past few years. With the advances in deep neural networks (DNN) and the release of large-scale audio datasets, numerous approaches have been investigated in the literature (see [2, 3] for a survey), including both supervised [3] and weakly-supervised [4] methods. Grounded on DCASE 2019 challenge with benchmarked datasets, the internship targets to build a state-of-the-art DNN model to do the inference accurately. Several settings might be considered : single channel vs. multichannel inputs, supervised vs. weakly supervised learning where the annotations are noisy and/or incomplete.

The intern will conduct both research and implemention while investigating the use of advanced DNN architectures and data augmentation strategies for the considered tasks. Depending on the actual work and the obtained result, the work may be concluded by a participation in the DCASE 2019 challenge and by a submission of a scientific publication in an international conference/workshop.

Bibliographie

[1] IEEE AASP Challenge on Detection and Classification of Acoustic Scenes and Events (DCASE), http://dcase.community/challenge2018/. [2] Shayan Gharib et al., “Acoustic scene classification : a competition review,” Aug. 2018. https://arxiv.org/pdf/1808.02357.pdf [3] Annamaria Mesaros et al., “Acoustic scene classification : an overview of DCASE 2017 challenge entries,”, Proc. IWAENC, 2018. http://www.cs.tut.fi/ mesaros/pubs/... [4] Romain Serizel et al., “Large-Scale Weakly Labeled Semi-Supervised Sound Event Detection in Domestic Environments,” Proc. DCASE2018 Workshop, July 2018. https://hal.inria.fr/hal-01850270


2. Évaluation physique et perceptive des mesures spatiales en Acoustique de salle


Site : Groupe Lutheries - Acoustique - Musique
Lieu : Groupe Lutheries - Acoustique - Musique Sorbonne Université, CNRS, UMR 7190, Institut Jean Le Rond ∂'Alembert 4, Place Jussieu 75005 Paris
Encadrant : David Thery, doctorant Brian FG Katz, DR2 CNRS
Dates :2019
Rémunération : en fonction de la grille standard SU
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

L’acoustique d’une salle peut être caractérisée d’une part objectivement, et d’autre part subjectivement. Objectivement à travers des mesures acoustiques desquelles sont extraits des paramètres objectifs tels que le temps de réverbération (T30, T20), des indices de clarté (C50, C80), l’ensemble des paramètres faisant partie d’une norme ISO [1]. D’autre part, des paramètres subjectifs tels que l’enveloppement, l’intensité, la largeur apparente d’une source entre autres permettent aussi de décrire perceptivement l’acoustique d’une salle.

De nombreuses recherches se sont intéressées aux liens entre ces paramètres objectifs et subjectifs [2]. Plus récemment, l’arrivée de microphones 3D (B-format, Octomic [3]) ont permis d’explorer le contenu spatial des réponses impulsionnelles. Ce stage a pour but d’étudier certains paramètres d’acoustique des salles spatiales (entre autres, JLF, LJ [4]). Des mesures de ces paramètres seront réalisées dans une salle de concert avec différents types de microphones afin d’évaluer la fiabilité de ces paramètres ainsi que les sources de variabilité des mesures.

Une analyse spatio-temporelle des mesures permettra également de rendre compte de l’effet de certaines particularités de géométrie des salles mesurées.

Finalement, une évaluation perceptive sur l’impression spatiale d’auralisations issues des mesures pourra être effectuée, permettant de confronter les aspect objectifs et perceptifs.

Des connaissances en acoustique des salles, matériel de mesures acoustiques, ainsi qu’une bonne connaissance de Matlab seront fortement appréciées.

Pour plus d’infromation : http://www.lam.jussieu.fr/Stages/St...

Bibliographie

[1] - ISO3382-1, “Measurement of Room Acoustic Parameters – Part1 Performance Spaces”, ISO (2009). [2] - Postma,Barteld N. J. and Katz,Brian F. G. – “Perceptive and objective evaluation of calibrated room acoustic simulation auralizations”, J. Acoust. Soc. Am. (140, 6, 4326-4337, 2016) [3] - http://www.core-sound.com/OctoMic/1.php http://www.core-sound.com/TetraMic/1.php [4] – Vigeant et al. - Repeatability of spatial measures using figure-of-eight microphones, Applied Acoustics (74, 2013)


3. Différences individuelles et effet de l’expertise musicale dans le traitement local/global en audition : identification des mécanismes sous-jacents ?


Site : https://www.ircam.fr/recherche/equi...
Lieu : Equipe Perception et Design Sonores, Ircam
Encadrant : Patrick Susini, Olivier Houix, Emmanuel Ponsot
Dates :01/02/19 au 30/05/19
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte Il existe une littérature abondante en vision - en psychophysique et en neuroscience– de travaux s’intéressent aux mécanismes de traitement de l’information d’une scène spatiale à un niveau global (la forme globale – la forêt) et à un niveau local (Le détail – les arbres), et à leurs interactions. Ces études montrent que l’information globale est traitée de manière plus rapide et plus efficace que l’information locale, et que dans des situations incongruentes (ex. une lettre A formée par de petites lettres B), l’information disponible à un niveau global conditionne le traitement de l’information locale ; on parle de prévalence de l’information globale. Les études en neurosciences montrent que les deux niveaux de traitement de l’information - local et global – font appels à des processus distincts ayant des localisations hémisphériques différentes. Cette question, récemment transposée en audition en s’intéressant cette fois aux traitements des informations locale et globale à un niveau temporel (et non spatial comme en vision) sur des mélodies composées de plusieurs motifs de trois notes, suggère des effets analogues à ceux décrits en vision. Tout d’abord, une déviation globale d’une mélodie (modification du contour par transposition en hauteur d’un des motifs) est mieux détectée qu’une déviation à un niveau local (modification de l’intervalle entre deux notes au sein même d’un motif). D’autre part, une déviation au niveau global affecte les performances des auditeurs pour traiter l’information locale. L’inverse est aussi observé mais dans une moindre mesure. Cependant, nous avons constaté une variabilité importante dans les résultats décrits ci-dessus entre les participants : (1) à l’échelle du groupe, un effet d’expertise musicale fort : les résultats ci-dessus (prévalence globale) ne s’obtiennent que chez des non-musiciens, le pattern inverse (prévalence locale) est même observé chez des musiciens ; (2) à l’échelle individuelle au sein de chaque groupe (musiciens / non-musiciens), il existe une variabilité importante dans la supériorité globale/locale et leurs interactions, qui font que cette distinction en 2 groupes n’est pas suffisante pour comprendre la cause de ces effets au niveau du groupe ; ils seraient causés par des mécanismes sous-jacents qu’il faut réussir à identifier.

Question de recherche : Derrière ces effets de groupes et ces variations interindividuelles, se cachent vraisemblablement plusieurs mécanismes qui sont influencés par l’expertise musicale, mais pas uniquement : les sujets musiciens ont tous à peu près le même le niveau d’éducation musicale, et pourtant certains ont des résultats proches des non-musiciens, et à l’inverse, certains musiciens ont des résultats proches des musiciens. Il s’agirait donc de mécanismes sous-jacents renforcés par l’apprentissage musical, mais qui sont sans doute déjà présents, dans une moindre mesure, chez des sujets non-musiciens, voire renforcés chez certains par d’autres apprentissages car ils obtiennent les mêmes résultats que les musiciens. Quels sont donc ces mécanismes ?

Sujet du stage : Psychophysique (+ modélisation éventuellement)

L’objectif est de comprendre les mécanismes sollicités dans la tâche locale/globale qui permettent d’expliquer les différences et le recouvrement des résultats entre les 2 groupes. S’agit-il de mécanismes auditifs basiques (sensibilité à la hauteur, mémoire de la hauteur), cognitifs (mémoire de travail) ou de stratégies purement décisionnelles (combinaison des informations disponibles) ?

-  Il s’agira de conduire des expériences psychophysiques permettant de sonder ces différents mécanismes pour chercher à voir le(s)quel(s) expliquent les différences de résultats à cette tâche (analyses de corrélation), et également récolter des données de contrôle sur les sujets testés (QI, niveau éducation musicale, niveau scolaire…) pour vérifier qu’elles n’expliquent pas ces différences
-  Eventuellement, tester les même sujets dans des tâches similaires en vision pour voir si les mécanismes sollicités sont spécifiquement auditifs ou partager entre les différentes modalités sensorielles
-  Aborder en parallèle, si possible, une approche de modélisation computationnelle pour chercher à expliquer les mécanismes mis en jeu et mieux distinguer les contributions sensorielles et décisionnelles de ces différences (voir tâches de Garner par exemple)

Perspectives de ce travail Fondamentale : comprendre des mécanismes perceptifs en audition et les différences de capacité entre individus Appliquées : Une fois ces mécanismes identifiés, trouver une façon de modifier les mécanismes de traitement de l’information local/global mis en jeu avec de l’apprentissage ? Perspectives en terme d’entrainement auditif ?

Bibliographie

Bouvet, L., Rousset, S., Valdois, S., & Donnadieu, S. (2011). Global precedence effect in audition and vision : Evidence for similar cognitive styles across modalities. Acta psychologica, 138(2), 329-335.

Justus, T., & List, A. (2005). Auditory attention to frequency and time : an analogy to visual local–global stimuli. Cognition, 98(1), 31-51.

Navon, D. (1977). Forest before trees : The precedence of global features in visual perception. Cognitive psychology, 9(3), 353-383.

Peretz, I. (1990). Processing of local and global musical information by unilateral brain-damaged patients. Brain, 113(4), 1185-1205.

Susini, P., Jibodh-Jiaouan, S., Brunet, E., Houix, O., and Ponsot, E. Global and local temporal processing in audition, and the influence of musical expertise. CFA, 2018, havre.


4. Vers la conception d’une sourdine pour instrument à anche basée sur le concept de pompage énergétique : étude préliminaire théorique et numérique sur un modèle simple


Lieu : INSA Centre Val de Loire, Campus de Blois, France
Encadrant : Baptiste Bergeot et Christophe Vergez
Dates :01/02/2018 au 30/06/2019
Rémunération :Environ 550 euros
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Un nouveau concept de contrôle passif des vibrations a été proposé en 2001 [1]. Son principe repose sur le couplage entre un système primaire - dont on souhaite limiter les vibrations - et un absorbeur dynamique non linéaire (c.-à-d. un système masse-ressort-amortisseur à raideur fortement non linéaire, appelé Nonlinear Energy Sink (NES) en anglais). Sous certaines conditions des transferts quasi-irréversibles de l’énergie vibratoire (ou acoustique) du système primaire vers l’absorbeur dynamique non linéaire peuvent se produire. Ce phénomène est appelé pompage énergétique.

Le contexte général de ce stage est l’utilisation du phénomène de pompage énergétique pour concevoir des sourdines efficaces pour instruments à anche (clarinettes, saxophones ...). En effet, les solutions existantes ne sont pas satisfaisantes alors que les produits efficaces pour les autres instruments (piano, cuivres, ...) suscitent un grand intérêt parmi les musiciens amateurs et professionnels. La difficulté par rapport aux cuivres vient de la présence de trous latéraux le long de l’instrument, qui constituent autant de sources acoustiques. La recherche et le développement dans ce domaine sont d’autant plus motivés par la nécessité qu’ont certains instrumentistes citadins de s’exercer quotidiennement, ce qui les rend prêts à acquérir des dispositifs très couteux, comme les cabines acoustiques par exemple.

Les premières applications du pompage énergétique en vibroacoustique [2] laissent penser que les NES pourraient être utilisés pour concevoir des sourdines efficaces pour instruments à anche. Cependant, la conception de ces sourdines a longtemps été freinée par l’absence de NES acoustique. En effet, dans les études précédemment citées les systèmes primaires sont acoustiques mais les NES sont mécaniques (en général des membranes de haut-parleurs). Des travaux récents [3] ont permis de mettre au point un NES acoustique qui se présente comme un résonateur de Helmholtz non linéaire.

L’objectif du stage est de s’appuyer sur ces travaux pour (1) coupler un modèle mathématique existant de clarinette à un mode [4] à un résonateur de Helmholtz non linéaire, (2) simuler numériquement le modèle pour en observer les différentes réponses et (3) l’analyser pour expliquer et prédire ses réponses. Dans un premier temps le candidat retenu devra se familiariser, par une brève étude bibliographique, avec le concept de pompage énergétique et avec le fonctionnement des instruments de musique auto-oscillants.

Bibliographie

[1] Gendelman, O., Manevitch, L. I., Vakakis, a. F., & M’Closkey, R. (2001). Energy Pumping in Nonlinear Mechanical Oscillators : Part I—Dynamics of the Underlying Hamiltonian Systems. Journal of Applied Mechanics, 68(1), 34. https://doi.org/10.1115/1.1345524

[2] Bellet, R., Cochelin, B., Herzog, P., & Mattei, P.-O. (2010). Experimental study of targeted energy transfer from an acoustic system to a nonlinear membrane absorber. Journal of Sound and Vibration, 329(14), 2768–2791. https://doi.org/10.1016/j.jsv.2010....

[3] Gourdon, E., Ture Savadkoohi, A., & Vargas, V. A. (2018). Targeted Energy Transfer from one acoustical mode to an Helmholtz resonator with nonlinear behavior. Nonlinear Dynamics, 140. https://doi.org/10.1115/1.4028225

[4] Chaigne, A., Kergomard, J. (2016). Acoustics of Musical Instruments. Springer-Verlag New York. https://doi.org/10.1007/978-1-4939-...


5. Reconnaissance d’incidents sonores par deep learning en milieu ferroviaire embarqué


Site : Trac-Reconnaissance d’incidents sonores par deep learning en milieu ferroviaire embarqué
Lieu : Le Mans
Encadrant : Sitou AFANOU
Dates :01/03/2019 au 01/09/2019
Rémunération :Environ 1000 EUR
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte de l’unité Au sein de SNCF Mobilités, le Centre d’Ingénierie du Matériel réalise des missions d’expertise dans diverses spécialités lors de l’acquisition et la rénovation de matériels roulants. Intégré à la spécialité ‘’Train Communicant’’, le groupe ‘’Images’’ expertise et conçoit sur des solutions de surveillance à base de caméras vidéo, ainsi que diverses solutions d’audiosurveillance.

Contexte du stage Dans le cadre de l’expérimentation et l’industrialisation de diverses solutions de « Surveillance intelligente », le matériel roulant doit embarquer des solutions logicielles et/ou matérielles, complètement autonomes, qui doivent être utilisées pour détecter des situations anormales : agression physique ou verbale, coup de feu, explosion. La veille technologique réalisée au sein de l’équipe montre l’arrivée à maturité de systèmes permettant de détecter certaines situations à partir de flux sonores associés à une intelligence adaptée

But du stage Le stage a pour but de développer des algorithmes de reconnaissance d’incidents sonores dans une rame ferroviaire équipée d’un réseau de microphones. Le stagiaire devra se baser sur les travaux déjà en cours dans l’équipe et développer des algorithmes en tirant profit des meilleures techniques de ‘’audio event detection’’ existant dans la communauté scientifique. Le stage se déroulera en deux grands volets :

  • Le volet algorithmique : Les activités envisagées dans ce volet sont :
    • Faire un état des lieux bibliographique des travaux et techniques avancées permettant la reconnaissance d’un motif sonore dans un signal audio, puis étudier comment ces algorithmes se comportent face aux phénomènes sonores propres à l’embarqué ferroviaire : roulement mécanique, annonces d’information voyageurs, contact roue/rail, …
    • Exploration des techniques de détection sonore avec des modèles de deep learning : CNN, GRU, LSTM, R-CNN, CRNN, … puis analyse des performances des différents algorithmes
    • Développer et fournir un logiciel embarqué issu des conclusions et choix technologiques réalisés à l’étape précédente, et basé sur un pipeline de traitement efficace permettant la reconnaissance d’une classe d’incident sonore, puis de 4 classes
    • Tester et valider sur table la solution logicielle sur des séquences audio pré enregistrés, puis rapidement sur des flux audio temps réel
  • Le volet Intégration
    • Porter la solution logicielle sur calculateur ferroviaire embarqué, puis réaliser des essais in-situ sur matériel roulant. Les solutions mises en œuvre devront prendre en compte l’aspect « temps-réel » de l’application finale qui implique l’activation d’une alarme visuelle ou informatique lorsqu’il y a détection d’un incident sonore

Profil recherché Le stage s’adresse aux étudiants en dernière année d’école d’ingénieur ou Master 2 informatique, acoustique ou traitement de signal (BAC+5) Les compétences techniques ciblées pour ce stage sont :
-  Langages : Python, PyAudio, PyDub, Flask
-  Framework deep learning : Keras, TensorFlow
-  Système d’exploitation : LINUX (Ubuntu / Fedora) & Windows
-  La connaissance de langages web (type Javascript, PHP, …) est un plus Les compétences fonctionnelles suivantes sont demandées
-  Intelligence artificielle
-  La connaissance des fondamentaux du traitement de signal audio est indispensable Le stagiaire devra faire preuve d’autonomie et d’initiative ainsi que d’un bon sens relationnel. Curiosité technique et esprit de synthèse seront également nécessaires.

Bibliographie

Detection, classification and localization of acoustic events in the presence of background noise for acoustic surveillance of hazardous situations, K. Lopatka & J. Kotus & A. Czyzewski

AUTOMATIC SOUND DETECTION AND RECOGNITION FOR NOISY ENVIRONMENT, Alain Dufaux, Laurent Besacier, Michael Ansorge, and Fausto Pellandini

SCREAM AND GUNSHOT DETECTION IN NOISY ENVIRONMENTS, L. Gerosa, G. Valenzise, M. Tagliasacchi, F. Antonacci, A. Sarti


6. Speech transformation using cycle-consistent adversarial networks


Site : [OPEN][RI-HOME_2019-DM-VP-030] Speech transformation using cycle-consistent adversarial networks
Lieu : Technicolor, Rennes
Encadrant : Alexey Ozerov, Ngoc Duong, Gilles Puy
Dates :01/02/2019 au 31/07/2019
Rémunération :1200 euros/month (brut)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Descriptif et missions du stage / Internship description In this internship we are addressing various speech transformation tasks targeting modifying a particular attribute in the speech signal. Potential attributes to be modified may include age, identity, gender, accent, mood, etc. At the beginning we will mostly concentrate on age modification (aging or de-aging), since this task is of a great interest for movie production. The proposed approaches will be based on deep learning methods and more specifically on cycle-consistent adversarial networks. We assume that some training data are provided. For example, if we would like to transform a speech of a 25 years old men so as it sounds as he is 60 years old, it is supposed that we have a training set of speech signals including two subsets : one of 25 years old speakers and another of 60 years old speakers. However, to greatly increase the range of the applications, we assume that the training dataset is “parallel-data-free”, i.e., the utterances pronounced in the two subsets are not necessarily the same, and thus they cannot be aligned on the phoneme level. The approach will consist in following steps : (1) extracting speech-specific parameters, (2) transforming them to the target ones using a cycle-consistent adversarial network, and (3) resynthesizing the resulting speech from the transformed parameters. Up to this processing the cycle-consistent adversarial network should be pre-trained on the available parallel-data-free training dataset.

Mots clés / Keywords : speech transformation, deep learning, machine learning, cycle-consistent adversarial networks

Thématiques associées / Associated thematics : Electronique et traitement du signal

Sous-thématique(s) / Sub-theme(s) : Machine / Deep Learning,Video Processing

Profil du candidat / Candidate profile : quatrieme ou cinquieme année de l’ecole d’ingénieur ou de l’université

Compétences attendues / Required skills : machine learning, audio processing, speech processing, Python or C++.

Anglais courant / Fluent english : Oui

Durée et période du stage / Internship duration and dates

Durée du stage / Internship duration : 6 mois

Date de début souhaitée (ou connue) / Estimated starting date : 2/1/2019

Date de fin prévisionnelle (si connue) / Estimated end date : 7/31/2019

Lieu du stage / Internship place : Rennes

Merci d’envoyer CV + LM à stage.technicolor@technicolor.com en indiquant la réf. RI-HOME_2019-DM-VP-030

Thanks to send your resume and cover letter to stage.technicolor@technicolor.com with the ref. RI-HOME_2019-DM-VP-030.

Bibliographie

[1] ZHU, Jun-Yan, PARK, Taesung, ISOLA, Phillip, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks. arXiv preprint, 2017.

[2] KANEKO, Takuhiro et KAMEOKA, Hirokazu. Parallel-data-free voice conversion using cycle-consistent adversarial networks. arXiv preprint arXiv:1711.11293, 2017.

[3] M. Morise, F. Yokomori, and K. Ozawa, ``WORLD : a vocoder-based high-quality speech synthesis system for real-time applications,’’ IEICE transactions on information and systems, vol. E99-D, no. 7, pp. 1877-1884, 2016.


7. Automatic drum loop transcription using deep learning


Site : Le Sound
Lieu : Toulouse
Encadrant : Chunghsin Yeh
Dates :du 01/03/2018 au 31/07/2018
Rémunération :554€
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Le Sound is developing next-generation interactive audio tools for sound design and post-production in the creative industry including film, broadcast and video games. We propose innovative solutions based on cutting-edge procedural audio research developed in-house and in partnership with internationally recognized research institutes and laboratories.

The internship is about applying deep learning methods to improve automatic transcription of drum loops. The intern will be working within Le Sound team of Novelab in Toulouse and fulfil the following tasks :
- establish a semi-automatic database generation toolchain
- improve Le Sound’s drum transcription algorithm by deep learning
- evaluate the proposed method

The candidate is expected to
- have a general knowledge of deep learning algorithms
- have experience in using Tensorflow
- demonstrate good Python programming skills

Please send your application to jobs@audiogaming.net

Bibliographie

Richard Vogl,Matthias Dorfer,and Peter Knees,“Drum transcription from polyphonic music with recurrent neural networks,” Proceedings of the 17th International Society for Music Information Retrieval Conference (ISMIR), 2016.

Carl Southall, Ryan Stables, and Hockman Jason, “Automatic drum transcription for polyphonic recordings using soft attention mechanisms and convolutional neural networks,” Proceedings of the 18th International Society for Music Information Retrieval Conference (ISMIR), 2017.

C. Jacques, A. Roebel : “Automatic drum transcription with convolutional neural networks,” Proceedings of the Digital Audio Effects (DAFx-2018).


8. Etude de fonctionnalités sonores dans des interfaces homme-machine pour des populations non expertes


Site : Cnam Paris - CEDRIC
Lieu : Cnam, Paris – Des déplacements/périodes de travail à l’Ircam sont à prévoir (10 min., à pied)
Encadrant : Tifanie BOUCHARA (Cnam Paris - CEDRIC) - tifanie.bouchara@lecnam.net – tel : 01 4027 2598 Nicolas MISDARIIS (STMS Ircam-Cnrs-SU, PDS) – nicolas.misdariis@ircam.fr - tel. 01 4478 1350
Dates :du 18/02/2019 au 26/07/2019
Rémunération :env. 500 E./mois (+ ticket resto. + transport)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

• Description du sujet Le sujet se situe dans le cadre d’une réflexion globale sur de nouveaux modèles d’interaction homme-machine (IHM) s’appuyant sur la modalité sonore [1] afin de faciliter l’accès aux nouvelles Technologies de l’Information et de la Communication (TIC) aux populations qui en sont actuellement éloignées (par exemple personnes en situation d’illettrisme ou d’ illectronisme).

Le stage se propose notamment d’explorer la pertinence des fonctionnalités sonores usuelles, actuellement implémentées dans différents systèmes d’information et de communication (téléphone portable, ordinateur, borne numérique, etc.), auprès d’utilisateurs non-experts, c’est-à-dire ici, ne possédant pas une culture numérique forte.

Cela permettra de mieux identifier les mécanismes de compréhension de ce type de signalétique sonore [2] et de mettre en évidence les liens fondamentaux entre les sons et les fonctions représentées. De plus, puisque les TIC reposent principalement sur des éléments visuels (notamment icônes), il s’agira aussi d’étudier les mécanismes d’appariement audiographique [3] permettant de renforcer la transmission de l’information et, là aussi, d’évaluer le rôle du contexte d’usage et de la connaissance des TIC dans ces appariements.

Le travail consistera en : un état de l’art de l’existant (malgré tout restreint à certaines fonctions et/ou environnements), une mise en forme de propositions prototypes sur la base d’une analyse de cet existant et/ou de créations sonores dédiées (conçues en parallèle du stage), et une exploration expérimentale au moyen de tests perceptifs.

• Profil recherché Formation en informatique, traitement du signal, acoustique et / ou psychoacoustique, psychologie expérimentale, sciences cognitives (une sensibilité à la création et au design sonore sera appréciée)

La poursuite en thèse de ce sujet est possible mais assujettie à l’obtention de financements supplémentaires

Bibliographie

7. Bibliographie sélective [1] Hermann, T., Hunt, A., Neuhoff J.G. editors (2011). The Sonification Handbook. (https://sonification.de/handbook/) [2] Susini, P., Gaudibert, P., Deruty, E., & Dandrel, L. (2003). Perceptive study and recommendation for sonification categories. Georgia Institute of Technology. [3] Pirhonen, A. (2007). Semantics of sounds and images : Can they be paralleled ? Proceedings of the International Conference in Auditory Display, Montréal, 26-29 June 2007, 219-325.


9. Conception automatique en design sonore (scènes sonores, habillages sonores, sonification)


Site : STMS Ircam /équipe Perception et Design Sonores (PDS)
Lieu : IRCAM, Paris - Quelques déplacements à Nantes pendant le stage
Encadrant : - Nicolas MISDARIIS (STMS Ircam-Cnrs-SU, équipe Perception et Design Sonores) nicolas.misdariis@ircam.fr - tel. : 0144781350 - Jean-François PETIOT (LS2N, Ecole Centrale de Nantes) Jean-François.Petiot@ls2n.fr- tel : 0240376959 - Mathieu LAGRANGE (LS2N, Ecole Centrale de Nantes) Mathieu.Lagrange@ls2n.fr- tel : 0240376964
Dates :du 18/02/2019 au 26/07/2019
Rémunération :env. 500 E./mois (+ ticket resto. + transport)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

• Description du sujet Que ce soit pour l’amélioration et l’enrichissement de la qualité sonore de lieux publics ou pour la création sonore liée aux media (bande son de films, radio, …) ou aux objets manufacturés, la génération de séquences ou de scènes sonores musicales ou environnementales trouve son utilité dans de nombreux domaines du design sonore. Ce type d’applications peut se formaliser comme une problématique de conception ou de création appliquée sous contraintes, le designer devant satisfaire un cahier des charges défini généralement avec des critères sémantiques (brief design). Dans ce cadre, des outils d’assistance à la composition, voire de composition automatique, peuvent assister le designer par une sélection d’échantillons pertinents et leur organisation, voire la synthèse sonore d’extraits adaptés. Nous proposons lors de ce stage de travailler au développement d’outils et méthodes pour la création sonore participative et interactive. Le travail s’appuiera sur un état de l’art concernant les méthodes de conception automatique pilotées en particulier par les perceptions et les émotions de l’utilisateur. On étudiera particulièrement le Kansei engineering japonais, méthode de conception affective et sensorielle centrée sur les perceptions utilisateur, ainsi que les méthodes interactives, de type IEC (interactive evolutionary computation) basées sur la création de solutions à partir d’évaluation de l’utilisateur.

En termes de méthode de synthèse, les techniques de synthèse neuronale basée échantillon – qui par leur approche novatrice permet de s’affranchir des hypothèses de stationnarité des approches basées trames comme le vocodeur de phase ou la synthèse granulaire – seront privilégiées pour leur qualité de rendu et l’aspect novateur de l’approche. L’application développée sera élaborée en concertation avec le candidat. Elle pourra concerner la problématique de sonification de données, la création d’habillages sonores (composition musicale assistée) pour les lieux de vie ainsi que les problématiques de design acoustique liées à la qualité acoustique perçue de produits.

Il faut noter que le sujet de master est très ouvert et s’établit sur un périmètre qui va au delà de la création assistée sous contraintes. Il nécessite une réflexion générale sur la conception de systèmes intégrant les perceptions de l’utilisateur (facteurs humains en conception de système). Le travail de master pourra se poursuivre par une thèse au LS2N, Nantes, avec un co-encadrement à l’IRCAM.

• Profil recherché Formation en informatique, traitement du signal, et / ou acoustique (une sensibilité aux questions de design et création sonores sera appréciée) Possibilité de thèse de doctorat au LS2N (Nantes) dans la suite de ce sujet.

Bibliographie

Burton A.R., Vladimirova. Generation of musical sequences with genetic techniques. Computer music Journal, 23 :4, pp. 59-73, Winter 1999.

Yanagisawa H., Fukuda S. Interactive reduct evolutional computation for aesthetic design. Journal of computing and information Science in Engineering., Vol 5, march 2005.

Lai H.H., Lin Y.C., Yeh C.H., Wei C.H. User oriented design for the optimal combination on product design. Int. J. Production Economics 100 (2006) 253-267.

Yanagisawa H., Murakami T., Noguchi S., Ohtomi K., Hosaka R. Quantification method of diverse kansei quality for emotional design application of product sound design. Conference DETC 2007, september 4-7, 2007

Van Den Oord, A., Dieleman, S., Zen, H., Simonyan, K., Vinyals, O., Graves, A., ... & Kavukcuoglu, K. (2016). Wavenet : A generative model for raw audio. arXiv preprint arXiv:1609.03499.

Kalchbrenner, N., Elsen, E., Simonyan, K., Noury, S., Casagrande, N., Lockhart, E., ... & Kavukcuoglu, K. (2018). Efficient Neural Audio Synthesis. arXiv preprint arXiv:1802.08435.

Miranda, E. R. (1995). An artificial intelligence approach to sound design. Computer Music Journal, 19(2), 59-75.

Antognini J., Hoffman M., Weiss R. (2018) Synthesizing Diverse, High-Quality Audio Textures : https://arxiv.org/abs/1806.08002

Oord A. , &All WaveNet : A Generative Model for Raw Audio : https://arxiv.org/abs/1609.03499 (Demo :https://deepmind.com/blog/wavenet-g...)


10. Caractérisation expérimentale et computationnelle de jugements auditifs haut-niveau – étude à partir du cas de la « chaleur » perçue d’un son


Site : STMS Ircam /équipe Perception et Design Sonores (PDS)
Lieu : IRCAM – UMR STMS Ircam-Cnrs-Upmc Equipes PDS / AnaSyn 1, place Igor Stravinsky – 75004 Paris
Encadrant : Nom des proposants : Nicolas Misdariis, Nicolas Obin, Emmanuel Ponsot Tel. : 01.44.78.48.90 / 01.44.78.13.50 Adresse électronique : nicolas.obin@ircam.fr / nicolas.misdariis@ircam.fr
Dates :du 18/02/2019 au 26/07/2019
Rémunération :env. 500 E./mois (+ ticket resto. + transport)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte scientifique La description verbale des sons de toute nature – musicale, vocale, environnementale – peut s’effectuer à plusieurs niveaux. Par analogie avec les différents modes d’écoute formalisés initialement par Schaeffer [Schaeffer, 1966] puis repris notamment par Chion [Chion, 1994] ou, plus récemment, Lemaitre [Lemaitre et al., 2010], on peut distinguer 3 modes de description ou de « discours » sur le son, correspondant chacun à une terminologie spécifique [Carron, 2016] :
-  le discours réduit – dual de la démarche d’entendre –, associé à des descripteurs élémentaires de bas niveau (hauteur, intensité), à des morphologies temporelles ou à des propriétés spatiales et timbrales ;
-  le discours causal – dual de la démarche d’écouter – associé à des descripteurs relatifs aux types de sources, aux matériaux qui les constituent ou aux actions qui les mettent en mouvement pour produire le son ;
-  le discours sémantique (ou contextuel) – dual de la démarche de comprendre –, associé à des descripteurs de haut niveau relatifs à la signification (sens) des sons, ou bien aux émotions, jugements et associations qu’ils évoquent. Inspirées par les premières recherches sur le timbre musical [Wessel, 1979, McAdams, 1995], de nombreuses études en perception sonore vise à établir un lien de correspondance entre descripteurs verbaux et propriétés physiques du signal sonore associé ; plus précisément, ces études visent à mettre à jour des dimensions perceptives qui sous-tendent la représentation mentale d’un ensemble de sons, puis à qualifier ces dimensions à la fois du point de vue verbal (leur donner un nom) mais aussi du point de vue physique (les relier à des paramètres calculables sur le signal). C’est ainsi, par exemple, que le percept de brillance émerge fortement dans la caractérisation des sons musicaux [Krimphoff et al., 1994] – s’étendant aux sons environnementaux [Misdariis et al., 2010] – et est généralement modélisé par le calcul d’un centre de gravité spectral. Pour de nombreux autres descripteurs usuels du son, notamment les descripteurs de haut niveau (p. ex., rond, chaud, agressif, etc.), ce lien perceptif – physique n’a pas encore été formalisé et modélisé aussi finement. Par ailleurs, les techniques de corrélation inverse (reverse corrélation), utilisées à la fois en vision et en audition, permettent de révéler des représentations mentales d’un attribut perceptif inconnu par une approche data-driven. L’idée générale de la corrélation inverse est de présenter à des participants un stimulus modifié aléatoirement au cours de nombreux essais. Cette perturbation s’effectue soit sur le signal directement (Ahumada et Lovel, 1971), soit en manipulant ses dimensions perceptives, comme le niveau (Ponsot et al., 2013), la hauteur (Ponsot et al., 2018b) ou le timbre (Sabin et al., 2011 ; Ponsot et al., 2018a) pour des stimuli auditifs, à partir de techniques de traitement du signal. La dimension de ces perturbations est choisie en adéquation avec la tâche considérée afin que ces stimuli conduisent à des jugements perceptifs différents. La corrélation inverse permet de déduire le traitement perceptif linéaire effectué (le modèle acoustique interne) à partir du profil des perturbations et des réponses obtenues au cours des différents essais. D’abord utilisée par les psychophysiciens pour caractériser les traitements sensoriels bas-niveau (Ahumada et Lovel, 1971), cette méthode s’avère également être un outil puissant pour caractériser des processus perceptuels ou cognitifs de haut niveau (Jack et al., 2017 ; Ponsot et al., 2018b), et permet en particulier de révéler le code sousjacent à des « représentations mentales » de l’attribut considéré (par ex., le timbre d’une voix souriante ou l’intonation d’une voix digne de confiance).

Objectifs L’objectif principal du stage est de consolider les premiers résultats obtenus sur l’attribut « chaud » [Rampon, 2018]. Cet attribut a été étudié sur 3 corpus différents : sons vocaux mono- et bi- syllabiques, et sons de synthèse, à partir de 2 hypothèses : la perception de « chaleur » peut s’expliquer, d’une part, par l’enveloppe spectro-temporelle du signal (EQ), et d’autre part, par le rapport harmoniques-sur-bruit (HNR) de son contenu spectral. Ces hypothèses ont fait l’objet d’expériences perceptives à partir d’une population de professionnels du son et ont abouti à la détermination de filtres moyens (linéaires) modélisant un son chaud à partir des 2 paramètres étudiés. La consolidation de ce travail pourra prendre trois directions différentes : i/ la validation expérimentale des premiers résultats, au moyen d’une reconstruction synthétique de « chaleur » et de son évaluation perceptive – cette partie expérimentale pourra également faire l’objet de l’étude de l’attribut opposé (« froid ») ; ii/ la reprise et l’exploitation approfondie des données d’expérience en s’intéressant, par exemple, à des modélisations non-linéaires ; ii/ une réflexion méthodologique sur la technique de corrélation inverse et, le cas échéant, la mise en œuvre d’implémentation palliant le principal problème de cette méthode, la durée d’expérience – cette réflexion pourra, par exemple, s’intéresser aux moyens d’obtenir une convergence plus rapide et plus sure de la méthode (plans d’expérience pré-déterminés et non aléatoire, choix des stimuli en fonction des réponses passées, etc. )

Déroulement envisagé Le stage pourra s’articuler en plusieurs grandes parties : i) travail bibliographique sur les techniques de reverse correlation appliquées à l’audio ; ii) étude approfondie de la première phase de l’étude à partir des données déjà collectées [Rampon, 2018] ; iii) amélioration du modèle de « chaleur » sonore ; iv) mise en œuvre d’une expérience de validation du modèle ; v) conception et implémentation de méthodes adaptatives / bayésiennes pour révéler les représentations mentales plus rapidement qu’avec la corrélation inverse ; vi) rédaction du rapport.

Type de travail et résultats attendus Travail bibliographique, expérimental et créatif. Résultats attendus, d’un point de vue théorique, en termes d’acquisition de connaissances en psychologie expérimentale, et d’un point de vue pratique, en termes de pattern de caractérisation des descripteurs sélectionnés.

Compétences requises Notions de base en traitement du signal, psychoacoustique, psychophysique, perception/cognition auditive, programmation (Matlab). Autonomie et goût pour la recherche.

Bibliographie

Ahumada Jr, A., & Lovell, J. (1971). Stimulus features in signal detection. The Journal of the Acoustical Society of America, 49(6B), 1751-1756.

Carron, M., Dubois, F., Misdariis, N., Talotte, C., Susini, P. (2014, October). Designing sound identity : providing new communication tools for building brands corporate sound. In Proceedings of the 9th Audio Mostly : A Conference on Interaction With Sound (p. 15). ACM. [hal-01321169]

Chion M. Audio-Vision : sound on screen. Columbia University Press, New York. (1994) Jack, R. E., & Schyns, P. G. (2017). Toward a social psychophysics of face communication. Annual review of psychology, 68, 269-297.

Krimphoff J., McAdams S., Winsberg S. "Caractérisation du timbre des sons complexes. II. Analyses acoustiques et quantification psychophysique." Le Journal de Physique IV 4.C5 (1994) : C5-625.

Lemaitre G., Houix O., Misdariis N., Susini P., « Listener Expertise and Sound Identification Influence the Categorization of Environmental Sounds », Journ. of Experimental Psychology : Applied, 2010, vol. 16, n° 1

McAdams S., Winsberg S., Donnadieu S., De Soete G., Krimphoff J. (1995). Perceptual scaling of synthesized musical timbres : common dimensions, specificities, and latent subject classes. Psychological Research, 58(3), 177-192.

Misdariis, N., Minard, A., Susini, P., Lemaitre, G., McAdams, S., Parizet, E., « Environmental Sound Perception : Metadescription and Modeling Based on Independent Primary Studies », EURASIP Journal on Audio, Speech, and Music Processing, Février 2010

Murray, R. F. (2011). Classification images : A review. Journal of Vision, 11(5), 2-2.

Ponsot E., Susini P., Meunier S. "Loudness Processing of Time-Varying Sounds : Recent advances in psychophysics and challenges for future research." INTER-NOISE Congress Proceed. Vol. 253. No. 2. 2016.

Ponsot, E., Burred, J. J., Belin, P., & Aucouturier, J. J. (2018b). Cracking the social code of speech prosody using reverse correlation. Proceedings of the National Academy of Sciences, 115(15), 3972-3977.

Ponsot, E., Arias, P., & Aucouturier, J. J. (2018a). Uncovering mental representations of smiled speech using reverse correlation. The Journal of the Acoustical Society of America, 143(1), EL19-EL24.

Rampon P.. Caractérisation du code acoustique de l’attribut « chaud » pour des sons vocaux et non-vocuax, par correlation inverse. Rapport stage. Master ATIAM – Sorbonne-Université.

Schaeffer P. Traité des objets musicaux. Paris : Editions du Seuil. (1966)

Wessel D. Timbre Space as a Musical Control Structure. Computer Music Journal, 3(2), 45-52, published by MIT Press. 1979


11. Extraction de sources sonores dans un flux multi-canal en temps-réel


Site : Trac-Extraction de sources sonores dans un flux multi-canal en temps-réel
Lieu : Lille
Encadrant : Maxime Baelde
Dates :Flexible
Rémunération :Gratification
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Problématique L’extraction de sources dans un flux multi-canal peut être vue comme à la croisée entre la séparation et la localisation de sources sonores. La séparation de sources consiste à extraire les différentes sources sonores présentes dans un signal audio (distribution fréquentielle) alors que la localisation de sources consiste à trouver la distribution spatiale des sources sonores. Beaucoup de techniques de séparation et de localisation existent mais fort peu parviennent à fonctionner en temps-réel (car non conçu dans ce but ou à cause de lacharge computationnelle).

Sujet Il s’agit de développer un algorithme d’extraction de sources sonores dans un flux multi-canal en temps-réel par un approche à choisir (par exemple de type Deep Learning [ 1 ]). Le projet commencera par un état de l’art des publications scientifiques (voire brevets) relatives aux deux sujets [ 2 ], [ 3 ]. L’aspect temps-réel est un point essentiel du projet : il s’agit de modifier un algorithme existant ou en créer un nouveau quipuisse fonctionner avec très peu d’informations audio et dont la charge computationnelle soit la plus faiblepossible. Le prototypage de l’algorithme sur Matlab ou Python en fin de projet serait un plus.

Encadrants Maxime Baelde, ingénieur R&D, doctorant (A-Volute / INRIA) maxime.baelde@a-volute.com Nathan Souviraà-Labastie, ingénieur R&D (A-Volute) nathan.souviraa-labastie@a-volute.com Raphaël Greff, directeur R&D (A-Volute) raphael.greff@a-volute.com

En préparation d’un diplôme d’ingénieur ou d’un master (bac+5), voire d’un doctorat (bac+8) (stage de césure), vous disposez de préférence de connaissances dans le développement et l’implémentation d’algorithmes avancés de traitement numérique du signal audio.

En outre, des notions avancées dans les domaines variés suivants seraient fortement appréciés :

Audio, acoustique et psychoacoustique Effets audio de manière générale : compression, égalisation, etc. Machine learning et réseaux de neurones artificiels. Statistiques, mathématiques probabilistes, optimisation. Programmation et développement informatique : Matlab, Python.

Et des expériences dans les domaines suivants seraient des plus :

Effets de spatialisation sonore : synthèse binaurale, Ambisonics, réverbération artificielle. Reconnaissance vocale, commande vocale. Effets de traitement de la voix : réduction de bruit, annulation d’écho, traitement d’antenne. Réalité virtuelle, augmentée et mixte. Programmation et développement informatique : Max/MSP, C/C++/C#. Moteurs de jeux vidéo : Unity, Unreal Engine, Wwise, FMod, etc. Logiciels d’édition audio : Audacity, Adobe Audition, etc. Publications scientifiques et dépôts de brevet. Maitriser parfaitement l’anglais. Faire preuve de curiosité intellectuelle.

Bibliographie

Références [ 1 ] I.Goodfellow, Y.Bengioet A.Courville.Deep Learning. 2016.

[ 2 ] N.Takahashi et al. « PhaseNet : Discretized Phase Modeling with Deep Neural Networks for AudioSource Separation ». In :Interspeech 2018. Interspeech 2018. ISCA, 2 sept. 2018, p. 2713-2717.

[ 3 ] Z.-Q.Wang, X.Zhanget D.Wang. « Robust TDOA Estimation Based on Time-Frequency Maskingand Deep Neural Networks ». In :Interspeech 2018. Interspeech 2018. ISCA, 2 sept. 2018, p. 322-326.


12. Séparation de sources audio (Postprocessing des résultats sur critères subjectifs et psychoacoustiques)


Site : Trac-Séparation de sources audio (Postprocessing des résultats sur critères subjectifs et psychoacoustiques)
Lieu : Lille
Encadrant : Nathan Souviraà-Labastie
Dates :Flexible
Rémunération :Gratification
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Problématique La séparation de sources consiste à extraire les différentes sources sonores présentes dans un signal audio, notamment en estimant leurs distributions fréquentielles. Beaucoup de techniques de séparation existent mais la plupart cherchent à optimiser un critère objectif, par exemple la divergence d’Itakura-Saito. La plupart des techniques de séparation de sources audio font ensuite appel à une étape de masquage temps fréquence. Dans de nombreux cas, cette étape induit des artefacts (gazouillis) perceptibles à l’oreille mais non pris en compte par les critères objectifs. De même, les résultats (signaux séparés) sont eux aussi très souvent évaluer de façon objective, par exemple par des métriques comme le rapport signal à distorsion ou artefact [ 5 ]. Certaines approches d’évaluation subjectives existent mais sont pour l’instant minoritaires[ 1 ], [ 2 ]

Approche Le choix de l’approche peut dépendre des aspirations de l’étudiant. Une première approche peut porter sur un traitement temporel du problème, par exemple avec une correction de phase sur les signaux de résultats. Une deuxième approche peut porter sur le post-traitement des coefficients du masque temp-fréquence, i.e. avant de repasser dans le domaine temporel. D’autres approches sont envisageables comme la modification de l’étape “classique” d’overlap and add pour mieux prendre en compte les aspects subjectifs. Par ailleurs des pistes de réflexion peuvent être trouvées dans [ 4 ] et l’utilisation d’algorithmes issus duDeep Learning [ 3 ] est aussi envisageable.

Encadrants Nathan Souviraà-Labastie, ingénieur R&D (A-Volute) nathan.souviraa-labastie@a-volute.com Damien Granger, ingénieur R&D (A-Volute) damien.granger@a-volute.com Maxime Baelde, ingénieur R&D, doctorant (A-Volute / INRIA) maxime.baelde@a-volute.com Raphaël Greff, directeur R&D (A-Volute) raphael.greff@a-volute.com

En préparation d’un diplôme d’ingénieur ou d’un master (bac+5), voire d’un doctorat (bac+8) (stage de césure), vous disposez de préférence de connaissance dans le développement et l’implémentation d’algorithmes avancés de traitement numérique du signal audio.

En outre, des notions avancées dans les domaines variés suivants seraient fortement appréciés :

Audio, acoustique et psychoacoustique Effets audio de manière générale : compression, égalisation, etc. Machine learning et réseaux de neurones artificiels. Statistiques, mathématiques probabilistes, optimisation. Programmation et développement informatique : Matlab, Python.

Et des expériences dans les domaines suivants seraient des plus :

Effets de spatialisation sonore : synthèse binaurale, Ambisonics, réverbération artificielle. Reconnaissance vocale, commande vocale. Effets de traitement de la voix : réduction de bruit, annulation d’écho, traitement d’antenne. Réalité virtuelle, augmentée et mixte. Programmation et développement informatique : Max/MSP, C/C++/C#. Moteurs de jeux vidéo : Unity, Unreal Engine, Wwise, FMod, etc. Logiciels d’édition audio : Audacity, Adobe Audition, etc. Publications scientifiques et dépôts de brevet. Maitriser parfaitement l’anglais. Faire preuve de curiosité intellectuelle.

Bibliographie

[ 1 ] M.Cartwright, B.Pardo et G. J.Mysore. « Crowdsourced pairwise-comparison for source separation evaluation ». In : p. 5.

[ 2 ] V.Emiya et al. « Subjective and Objective Quality Assessment of Audio Source Separation ». In :IEEE Transactions on Audio, Speech, and Language Processing19.7 (sept. 2011), p. 2046-2057.

[ 3 ] I.Goodfellow, Y.Bengio et A.Courville.Deep Learning. 2016.

[ 4 ] A. M.KREME, V.Emiya et C.Chaux. « Phase reconstruction for time-frequency in painting ».In :International conference on Latent Variable Analysis and Signal Separation (LVA/ICA). Guildford,United Kingdom, juil. 2018.

[ 5 ] E.Vincent, R.Gribonval et C.Fevotte. « Performance measurement in blind audio source separation ». In :IEEE Transactions on Audio, Speech, and Language Processing14.4 (juil. 2006). 5*,p. 1462-1469


13. Génération automatique de version Karaoké


Site : Trac-Génération automatique de version Karaoké
Lieu : Lille
Encadrant : Nathan Souviraà-Labastie
Dates :Flexible
Rémunération :Gratification
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Problématique

Une version Karaoké d’un morceau de musique est une version ou la voix du chanteur n’est plus présente dans le morceau. Généralement une telle version de la musique est présenté avec un sous-titrage des paroles permettant à l’utilisateur de chanter au rythme du morceau "instrumental". La plupart du temps, ces versions Karaoké sont générées ("masterisées") à la main par un ingénieur du son. Les sociétés de divertissement ont déjà des bases de données bien fournies de ce genre de contenu. Cependant, elles ne peuvent pas faire face à la quantité des morceaux créés chaque jour notamment par les musiciens amateurs et doivent se concentrer sur les morceaux les plus connus. Ainsi, un outil de génération automatique de version Karaoké permettrait au grand public d’accéder à une base de données potentiellement infinie de version Karaoké. De même, dans le cas d’un contenu écouté en streaming un outil automatique (et temps réel) serait également nécessaire.

Approche

Une première tâche sera de mettre en oeuvre une méthode de l’état de l’art de séparation de sources audio. La méthode sera à discuter selon les aspirations de l’étudiant (ML [ 2 ], empirique type REPET [ 1 ]). Une base de données et les résultats d’une campagnes d’évaluation de séparation de musique est disponible dans [ 3 ]. Une deuxième tâche sera de générer un sous-titrage synchronisé avec le morceaux de musique. Pour la majorité des morceaux, les paroles sont disponibles en ligne en version texte brute. Il s’agirait alors de synchroniser et d’afficher cette version sur la base d’une comparaison avec la version speech-to-text de la source de voix qui a été retirée. Des compétences ou expériences en Natural Language Processing (NLP) ou en traitement de données symboliques seraient un plus.

Encadrants

Nathan Souviraà-Labastie, ingénieur R&D (A-Volute) nathan.souviraa-labastie@a-volute.com Maxime Baelde, ingénieur R&D, doctorant (A-Volute / INRIA) maxime.baelde@a-volute.com Raphaël Greff, directeur R&D (A-Volute) raphael.greff@a-volute.com

En préparation d’un diplôme d’ingénieur ou d’un master (bac+5), voire d’un doctorat (bac+8) (stage de césure), vous disposez de préférence de connaissance dans le développement et l’implémentation d’algorithmes avancés de traitement numérique du signal audio.

En outre, des notions avancées dans les domaines variés suivants seraient fortement appréciés :

Audio, acoustique et psychoacoustique Effets audio de manière générale : compression, égalisation, etc. Machine learning et réseaux de neurones artificiels. Statistiques, mathématiques probabilistes, optimisation. Programmation et développement informatique : Matlab, Python.

Et des expériences dans les domaines suivants seraient des plus :

Effets de spatialisation sonore : synthèse binaurale, Ambisonics, réverbération artificielle. Reconnaissance vocale, commande vocale. Effets de traitement de la voix : réduction de bruit, annulation d’écho, traitement d’antenne. Réalité virtuelle, augmentée et mixte. Programmation et développement informatique : Max/MSP, C/C++/C#. Moteurs de jeux vidéo : Unity, Unreal Engine, Wwise, FMod, etc. Logiciels d’édition audio : Audacity, Adobe Audition, etc. Publications scientifiques et dépôts de brevet. Maitriser parfaitement l’anglais. Faire preuve de curiosité intellectuelle.

Bibliographie

[ 1 ] Z.Rafii et al. « An Overview of Lead and Accompaniment Separation in Music ». In :IEEE TRANSACTIONS ON AUDIO(), p. 31. [ 2 ] N.Takahashi et al. « Deep Convolutional Neural Networks and Data Augmentation for Acoustic Event Detection ». In :arXiv :1604.07160 cs. [ 3 ] D.Ward et al. « SISEC 2018 : state of the art in musical audio source separation - Subjective selection of the best algorithm ». In :4th Workshop on Intelligent Music Production, WIMP 2018. University of Huddersfield, sept. 2018


14. Effets ambisoniques pour la création musicale


Site : www.noisemakers.fr
Lieu : Rennes
Encadrant : Charles Verron
Rémunération :gratification (environ 500 euros par mois)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte Ambisonique est une technique de spatialisation inventée par Gerzon dans les années 70. Elle permet de capter, transformer, et restituer un son en 3D, sur des systèmes de haut-parleurs ou au casque. Elle est récemment revenue sur le devant de la scène, Google et Facebook ayant choisi ce format pour la création de vidéos 360 et d’expériences VR. Les outils existants aujourd’hui sont souvent centrés sur le positionnement des sources en 3D (panning) et la restitution sonore (rendering). Un panel d’effets sonores créatifs reste à explorer.

Objet Le stage consiste à concevoir et développer de nouveaux outils dédiés à la création musicale spatialisée en ambisonique. La première phase du stage consistera à se familiariser aux outils existants. Plusieurs effets pourront être à l’étude (réverbération, filtrage, chorus, EQ…). La piste d’approfondissement pressentie concerne la réverbération, par convolution, feedback delay network, et architectures hybrides. Le contrôle gestuel de la spatialisation est également une possibilité. A l’issue de la phase d’analyse théorique, le stagiaire s’attachera à la conception et au développement d’un prototype temps-réel.

Compétences attendues Traitement du signal, pratique musicale, développement C++

L’entreprise Noise Makers développe des outils logiciels audio, utilisés par des sound designers dans plus de dix pays, pour la création de musique, d’expériences de réalité virtuelle et de jeux vidéo. Nous travaillons en collaboration avec Sennheiser, RFI Labo, Radio France et France Télévisions, pour mettre au point des solutions innovantes, au service de la création sonore audio 3D. Noise Makers dispose d’un fort savoir-faire dans ce domaine, basé sur plus de 10 ans d’expérience en traitement du signal audio.

Informations pratiques Salaire : gratification (environ 500 euros par mois) Lieu : Rennes Contact : charles.verron@noisemakers.fr Site internet : www.noisemakers.fr

Bibliographie

https://plugins.iem.at/

http://research.spa.aalto.fi/projec...


15. NFC HOA : Near Field Compensation High Order Ambisonics


Site : http://www.lmssc.cnam.fr/
Lieu : CNAM Conservatoire National des Arts et Métiers 75003 Paris
Encadrant : Alexandre Garcia (PU) : 01 40 27 22 24, alexandre.garcia@lecnam.net Christophe Langrenne (IGR) : 01 40 27 20 90, christophe.langrenne@lecnam.net
Dates :du 01/02/2019 au 30/06/2019
Rémunération :Base Master 2
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

La synthèse de champs sonores 3D est un sujet de recherche en vogue pour l’audio, mais peu envisagée pour les moyens d’essais acoustiques (chambre réverbérante, cabine alpha, etc). Elle pourrait cependant constituer une alternative séduisante pour de tels équipements dès lors que la reproduction du champ peut être suffisamment précise. Le laboratoire a mis en œuvre lors d’une précédente thèse la Near-Field Compensated High Order Ambisonics (NFC HOA). Il reste à corriger l’effet de la salle de restitution. L’idée de base est de mesurer la matrice de réflexion de la salle exprimée en composantes sphériques à partir de simulations numériques et expérimentations réelles.

Bibliographie

J. Daniel, R. Nicol and S. Moreau, Further inverstigations of High Order Ambisonics and wavefield synthesis for holophonic sound imaging, 114th AES Convention, 2003.

R. Deprez, R. Nicol and E. Friot, Validation théorique de la correction des réflexions sur la base d’une représentation en harmoniques sphériques, 10ème CFA, Lyon, 2010.

N. Stefanakis, F. Jacobsen et J. Sarris, Effort variation regularization in sound field reproduction, J. Acoust. Soc. Am. 128(2), 2010, 740-750.


16. Spatial Features for Robust Speech Recognition


Site : Spatial Features for Robust Speech Recognition
Lieu : OFFIS Institute for Information Technology Escherweg 2., 26121 Oldenburg, Germany https://www.offis.de/en.html
Encadrant : Benjamin Cauchi Researcher in the Group Biomedical and Systems (BMS) Benjamin.cauchi@offis.de
Dates :du 15/02/2018 au 15/08/2018
Rémunération :According to German Regulations (around 450€ per month)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Spatial Features for Robust Speech Recognition

Accuracy of ASR (Automatic Speech Recognition) systems and the speech intelligibility perceived by a human listener are defined in a similar way, i.e., as the ratio between the number of words correctly identified and the number of words present in the target signal. Additionally, it is well known that binaural cues have a large impact on speech intelligibility [1] and that preprocessing using spatial characteristics of the signal, e.g. beamforming, can greatly improve the performance of ASR systems [2].

Speech enhancement, which aim at improving speech intelligibility, and preprocessing, which aim at improving ASR accuracy are often based on similar processing schemes and approaches designed for one application can be exploited by the other. For example, features used by ASR systems are often derived from psychoacoustic models [3] while recent approaches have used ASR systems to predict speech intelligibility [4].

The aim of this internship is to quantify the impact of binaural cues on the performance of an ASR system. The first stages of the internship will consist in getting familiar with the literature and in extracting standard spatial features using Matlab. This features will then have to be integrated into a provided ASR framework (Based on Kaldi), which aims at recognising speech sentences from binaural signals, in order to quantify the benefits of the considered spatial features.

The work would require a solid knowledge of signal processing as well as an interest for machine learning and experience in programming using Matlab and C or C++. A good level of English is expected to write publications, e.g. internship report, and communicate results internally.

The projected work is suited for an internship of 5 to 6 months, the starting date is flexible. Work will be carried within the OFFIS Institute for Information Technology in Oldenburg, Germany. OFFIS is an associated institute of the University of Oldenburg, focussing on application oriented research.

Bibliographie

[1] J. Blauert, "Spatial Hearing : The Psychophysics of Human Sound Localization.", Cambridge, MA, USA : MIT Press, 1997.

[2] Results of the 4th CHiME Speech Separation and Recognition Challenge http://spandh.dcs.shef.ac.uk/chime_... /chime2016/ results.html"

[3] N. Moritz et al., "An Auditory Inspired Amplitude Modulation Filter Bank for Robust Feature Extraction in Automatic Speech Recognition.", in IEEE/ACM Trans. on Audio, Speech, and Language Processing, 2015.

[4] B. Kollmeier et al., "Sentence Recognition Prediction for Hearing-impaired Listeners in Stationary and Fluctuation Noise With FADE : Empowering the Attenuation and Distortion Concept by Plomp With a Quantitative Processing Model", in Trends in Hearing, 2016.


17. Évaluation comparative de techniques de mesure de réponses impulsionnelles de salles amplifiées


Lieu : Trinnov Audio Neuilly-Plaisance (94) RER A ou E Val de Fontenay
Encadrant : Benjamin Duval
Dates :du 01/02/2019 au 28/06/2019
Rémunération :1000€ / mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Entreprise : Trinnov Audio développe et commercialise des technologies audio basées sur le traitement numérique du signal pour les industries de la télévision, du cinéma et du home-cinéma. Nos processeurs Trinnov Optimizer sont installés dans des studios de broadcast tels que France Télévision, Radio France, BBC, FOX studios, NHK, dans des studios de mixage, dans des salles de cinéma comme UGC, CGR, Pathé-Gaumont, etc. La technologie Trinnov Optimizer, reconnue internationalement, permet de mesurer et compenser automatiquement l’acoustique du lieu de restitution (salle + haut-parleurs).

Problématique : La correction acoustique active de l’Optimizer repose sur une mesure de la réponse impulsionnelle du système de restitution. Différentes méthodes existent pour cela (MLS, sweep sine, etc.). Ces méthodes ont toutes des avantages et des inconvénients, sont robustes à certains types de perturbations et moins à d’autres. La précision de la correction dépend de l’aptitude du système de mesure à s’immuniser contre ces perturbations les plus fréquentes et/ou les plus handicapantes.

Mission : Le stagiaire devra imaginer puis conduire des tests permettant de déterminer l’influence de diverses perturbations aux différentes méthodes de mesure de réponse impulsionnelles. Après une étude bibliographique (AES, etc.), il concevra les tests permettant d’évaluer tous les paramètres individuellement, et les réalisera dans le labo de Trinnov en s’aidant d’un langage de programmation de scripts (Matlab, Python, etc.). Il proposera une méthode optimale de mesure de réponse impulsionnelle adaptée aux situations de mesure réelles, et l’évaluera dans un environnement réaliste. Enfin, il rédigera les conclusions dans un rapport et/ou un article scientifique.

Profil recherché :
- BAC +5 en traitement du signal
- bonnes connaissances théoriques en traitement numérique du signal, réalisations pratiques (TP, stages, travaux personnels...)
- maîtrise d’au moins un langage de programmation
- autonomie, rigueur, créativité et goût du challenge

Bibliographie

GB Stan, JJ Embrechts, D Archambeau, "Comparison of different impulse response measurement techniques" Journal of the Audio Engineering Society 50(4):249-262, April 2002

Angelo Farina, "Simultaneous Measurement of Impulse Response and Distortion with a Swept-sine technique" Journal of the Audio Engineering Society 48, p. 350, 108th AES Convention, Paris 2000


18. Synthèse de sons de basse électrique fretless


Lieu : Équipe Lutheries-Acoustique-Musique de l’Institut Jean le Rond d’Alembert, Sorbonne Université – Campus Pierre et Marie Curie & Institute of Mechanical Sciences and Industrial Applications ENSTA ParisTech à Palaiseau
Encadrant : Jean-Loïc Le Carrou, Maître de Conférences HDR UPMC (jean-loic.le_carrou@sorbonne-universite.fr) Cyril Touzé, Professeur ENSTA ParisTech (cyril.touze@ensta.fr) Olivier Doaré, Professeur ENSTA ParisTech (olivier.doare@ensta.fr)
Dates :15/02/18 au 15/07/18
Rémunération :environ 500€
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

La basse électrique est un instrument de musique dont la sonorité varie considérablement en fonction du mode de jeu choisi et du réglage de l’instrument. Lorsque le musicien joue en slap ou en pop par exemple, la corde vibre avec une amplitude telle qu’elle peut heurter des parties rigides de l’instrument, ce qui lui confère un son caractéristique, enrichi en hautes fréquences. Lorsque l’instrument est mal réglé, un buzz typique est présent même à faible amplitude de vibration durant toute la durée de la note. Pour ces deux cas, nos travaux récents ont permis de simuler de manière particulièrement réaliste par méthode modale la vibration de la corde [1] comprenant ses deux polarisations de vibrations [2] pour un ensemble limité de contacts représentant les frettes de l’instrument et pour une excitation idéalisée. Nous souhaitons poursuivre nos travaux au cas des instruments sans frette, comme la basse fretless. Pour ces derniers, la condition à la limite au niveau du manche revêt une importance fondamentale qu’il faudra intégrer dans la modélisation modale actuellement développée en plus d’un profil réaliste de la touche. Par ailleurs, on tachera, dans le cadre de ce stage, à intégrer à la fois le doigt appuyant sur la corde pour sélectionner la note jouée et une excitation réaliste de vibrations de la corde au travers de trajectoires de musiciens jouant l’instrument. Enfin, un travail spécifique quant à la limitation en terme de temps de calcul sera mis en place de manière judicieuse. L’approche envisagée est à la fois numérique et expérimentale. Des validations expérimentales et des identifications de paramètres mécaniques sur banc de mesures et sur instrument sont prévues.

Bibliographie

[1] C. Issanchou, S. Bilbao, J-L. Le Carrou, C. Touzé et O. Doaré, A modal-based approach for the non linear vibration of strings against a unilateral obstacle : simulations and experiments in the pointless case, Journal of Sound and Vibration, 393, pp. 229-251 (2017). [2] C. Issanchou, J-L. Le Carrou, C. Touzé, B. Fabre et O. Doaré, String/frets contacts in the electric bass sound : Simulations and experiments, Applied Acoustics, 129, pp. 217-228 (2018).


19. Etude biomécanique de la performance musicale dans le cas de la harpe


Lieu : Équipe Lutheries-Acoustique-Musique de l’Institut Jean le Rond d’Alembert. Sorbonne Université – Campus Pierre et Marie Curie. 4 place Jussieu, 75005 PARIS.
Encadrant : Jean-Loïc Le Carrou : Maître de Conférences HDR UPMC (jean-loic.le_carrou@sorbonne-universite.fr) Delphine Chadefaux : Maître de Conférences Université Paris 13 (delphine.chadefaux@univ-paris13.fr)
Dates :15/02/18 au 15/07/18
Rémunération :environ 500€
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Au cours de la phase d’apprentissage de leur instrument, les musiciens développent une expertise gestuelle importante leur permettant à la fois d’atteindre la production sonore désirée, et de transmettre une intention musicale à l’audience. La pratique musicale nécessite ainsi une dextérité fine, des mouvements répétitifs, rapides, précis, et des efforts importants pour mettre en vibration l’instrument tout en adoptant des postures souvent peu naturelles pour le corps humain. La spécificité de cette performance motrice requiert une attention particulière afin de répondre aux enjeux tant de production musicale que d’intégrité physique des instrumentistes.

Lors d’études précédentes, le pincement d’une corde de harpe a été analysé [1] et modélisé [2] à partir de films obtenus à l’aide d’une caméra rapide. Il est apparu que la trajectoire du couple doigt/corde pendant le pincement est propre au musicien, mais aussi à la technique de jeu employée. De même, les conditions initiales apportées à une corde de harpe (déplacement, vitesse, polarisation et rotation), définissant ainsi le son produit, et la force de pincement varient de manière significative entre musiciens et techniques de jeu. Enfin, il est à noter que cette force nécessaire à la mise en vibration d’une corde par le doigt a été estimée jusqu’à 20 N. En conséquence, l’étude du geste musical ne peut se réduire à la seule étude de l’interaction entre le doigt et la corde, et l’organisation cinématique et musculaire des musiciens doit être abordée. Dans ce cadre, une étude préliminaire a souligné l’existence de stratégies différentes entre harpistes dans la répartition du travail musculaire dans le membre supérieur [3].

Nous souhaitons désormais étendre ces travaux à la pratique de l’instrument dans des contextes musicaux variés afin de rendre compte des enjeux de fatigue musculaire dans la performance musicale. Pour cela deux approches complémentaires seront mises en place. (1) Une analyse de la cinématique articulaire et de la posture de plusieurs harpistes sera entreprise à partir d’une base de données déjà établie. Une caractérisation de l’éventail des stratégies cinématiques des instrumentistes sera effectuée en relation avec les techniques de jeu les plus répandues. (2) L’activité musculaire développée lors de la performance musicale sera étudiée pour plusieurs techniques de jeu caractéristiques. L’interprétation des résultats en collaboration avec des harpistes professionnels permettra de proposer des recommandations aux instrumentistes afin de limiter les risques de fatigue musculaire dans la pratique de la harpe.

Bibliographie

[1] D. Chadefaux, J-L. Le Carrou, B. Fabre et L. Daudet. Experimentally based description of harp plucking. Journal of the Acoustical Society of America, 131(1), pp. 844-855 (2012).

[2] D. Chadefaux, J-L. Le Carrou et B. Fabre. A model of harp plucking. Journal of the Acoustical Society of America, 133(4), pp. 2444-2455 (2013).

[3] D. Chadefaux, J-L. Le Carrou, B. Fabre, M. Wanderley et L. Daudet. Gestural strategies in the harp performance. Acta Acustica united with Acustica, 99, pp. 986-996 (2013).


20. Jeu du clavicordiste


Lieu : Équipe Lutheries-Acoustique-Musique de l’Institut Jean le Rond d’Alembert – Sorbonne Université – Campus Pierre et Marie Curie
Encadrant : Jean-Théo Jiolat, Doctorant (jean-theo.jiolat@sorbonne-universite.fr), Jean-Loïc Le Carrou, Maître de Conférences HDR (jean-loic.le_carrou@sorbonne-universite.fr) et Christophe d’Alessandro, Directeur de Recherche CNRS (christophe.dalessandro@sorbonne-universite.fr)
Dates :15/02/19 au 15/07/19
Rémunération :environ 500€
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Le clavicorde est un instrument à clavier dont le mécanisme d’excitation est simple et particulier [1]. La pression du doigt sur une touche fait soulever un morceau de métal, appelé tangente, qui percute la corde. L’excitation ayant eu lieu, la corde vibre selon une longueur délimitée par la tangente et le chevalet. La tangente joue alors le rôle de sillet. Dès lors que le doigt relâche la touche, la tangente perd contact avec la corde, et l’étouffoir disposé à l’extrémité de celle-ci met un terme à sa vibration. Ce fonctionnement rend le toucher du clavicorde délicat nécessitant un compromis entre vitesse et force d’enfoncement. En effet, une pression trop importante du doigt entraîne une augmentation de la tension de la corde et donc de sa fréquence fondamentale de façon perceptible. De plus, si la vitesse d’enfoncement de la touche n’est pas suffisante, le niveau sonore est trop faible. L’instrumentiste doit donc développer une stratégie gestuelle lui permettant de jouer avec la dynamique la plus importante possible tout en jouant juste [2]. Cette exigence imposée par le fonctionnement organologique de cet instrument permet l’apprentissage d’un mode de jeu transposable ensuite sur d’autres instruments à clavier. C’est en cela que cet instrument est connu pour sa vertu pédagogique. L’objectif du stage consiste à étudier cette stratégie gestuelle pour plusieurs instrumentistes. Le travail consistera donc à élaborer un protocole expérimental permettant de capter le jeu du musicien sur un clavicorde. Pour cela, il faudra être capable de mesurer à la fois la force d’excitation donnée par la tangente à la corde et la vitesse d’enfoncement au niveau du clavier de manière synchrone et non invasive. Une validation pourra être menée grâce au doigt robotisé instrumenté présent dans l’équipe [3]. Dans un second temps, une modélisation du geste instrumental sera développée en vue de l’intégrer dans un modèle physique d’instrument en cours d’élaboration [4]. Grâce au modèle ainsi constitué et aux données extraites de l’expérience, une étude paramétrique pourra être entreprise afin d’analyser en détail l’influence du geste sur le son de l’instrument.

Bibliographie

[1] Bernard Brauchli. The clavichord. Cambridge University Press, 1998.

[2] Christophe d’Alessandro. On the dynamics of the clavichord. The Journal of the Acoustical Society of America, 2008, vol. 123, no 5, p. 3445-3445.

[3] Alexandre Roy. Développement d’une plate-forme robotisée pour l’étude des instruments de musique à cordes pincées. PhD thesis, Paris 6, 2015.

[4] Jean-Théo Jiolat. Etude des cordes mortes du clavicorde. Rapport de stage de M2, Master Atiam, 2017

[5] Christophe d’Alessandro. Le paradoxe du clavicorde, Congres Français d’Acoustique, CFA 2016 Le Mans 11-15 Avril 2016, 2263-2269.


21. Modèles stochastiques de réverbération pour la séparation de sources audio


Site : Groupe Signal, Statistique et Apprentissage (S2A)
Lieu : Télécom ParisTech, Département Image, Données, Signal (IDS), 46 rue Barrault, 75013 Paris
Encadrant : Roland Badeau
Dates :du 18/02/2019 au 14/08/2019
Rémunération :rémunération forfaitaire de l’ordre de 570 € par mois
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Contexte : Le problème de séparation de sources [Cardoso 98] consiste à estimer les "signaux sources" émis par différentes sources sonores (locuteur humain, instruments de musique, etc.), à partir de l’observation d’un ou plusieurs signaux composés d’un "mélange" de ces sources, captés par différents microphones. Les deux principales difficultés de ce problème sont dues à l’utilisation d’un nombre de capteurs inférieur au nombre de sources (mélange "sous-déterminé"), et au phénomène de réverbération (mélange "convolutif"). Ces dernières années, les efforts de recherche ont principalement porté sur la modélisation des signaux sources, qui est indispensable pour traiter le cas sous-déterminé. En revanche, la réverbération n’a reçu qu’une attention récente, et les modèles de réverbération utilisés à ce jour restent assez simples.

Sujet de stage : Le phénomène de réverbération se modélise par la convolution entre le signal source et une réponse impulsionnelle de salle. Le début de cette réponse de salle, appelé réverbération précoce, est constitué du chemin direct entre la source et le microphone, et des premières réflexions de l’onde sonore sur les différentes surfaces de la salle (murs, plafond, sol, etc.). La suite de cette réponse est appelée réverbération tardive : les réflexions deviennent si nombreuses que l’information de directivité est perdue : le champ sonore devient diffus (uniforme et isotrope). Les premiers modèles de réverbération utilisés en séparation de sources audio ont notamment été proposés par [Duong 10] et [Leglaive 16]. Ces travaux pionniers ont démontré l’intérêt de cette approche pour améliorer la qualité des sources sonores séparées, mais reposent sur des modèles simplifiés de réverbération. Dans ce stage, il est proposé d’étudier l’applicabilité de modèles plus réalistes, récemment proposés à Télécom Paristech pour la séparation de sources audio [Badeau 18].

Mots clés : Séparation de sources, réverbération, modèles probabilistes, méthodes bayésiennes

Profil du candidat : les conditions exigées pour ce stage sont les suivantes :
- deuxième année de Master Recherche ;
- des connaissances en traitement du signal audio ;
- des connaissances en probabilités, statistiques et estimation bayésienne ;
- la maîtrise du langage Matlab.

Contact : Les candidats intéressés peuvent contacter Roland Badeau (roland.badeau@telecom-paristech.fr) pour plus d’informations, ou directement adresser par courriel une lettre de candidature incluant un Curriculum Vitae.

Bibliographie

[Cardoso 98] J. F. Cardoso, "Blind signal separation : statistical principles," in Proceedings of the IEEE, vol. 86, no. 10, pp. 2009-2025, octobre 1998.

[Duong 10] N. Q. K. Duong, E. Vincent and R. Gribonval, "Under-Determined Reverberant Audio Source Separation Using a Full-Rank Spatial Covariance Model," in IEEE Transactions on Audio, Speech, and Language Processing, vol. 18, no. 7, pp. 1830-1840, sept. 2010.

[Leglaive 16] S. Leglaive, R. Badeau & G. Richard, "Multichannel Audio Source Separation with Probabilistic Reverberation Priors", IEEE/ACM Tr. on Audio, Speech, and Language Processing, vol. 24, no. 12, pp. 2453 – 2465, décembre 2016.

[Badeau 18] R. Badeau, “Research report on unified stochastic reverberation modeling,” Télécom ParisTech, Paris, France, Tech. rep. n° 2018D001, février 2018.


Sujet de stage

22. Perception et synthèse sonore du bruit cabine d’un avion


Site : Lien vers le site de candidature AIRBUS
Lieu : Département acoustique d'AIRBUS à Toulouse (Saint-Martin du Touch)
Encadrant : Jean-François SCIABICA et François BESLUAU
Dates :du 18/02/2019 au 30/08/2019
Rémunération :Oui, selon grille définie par les RH
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Le département acoustique d’Airbus recrute un stagiaire Bac + 5 en perception et synthèse sonore. D’une durée de 6 mois, ce stage aura lieu à Toulouse à partir du mois de mars 2019.

Contexte

Le stagiaire fera partie de l’équipe « Bruit intérieur ». Cette dernière évalue notamment l’impact de nouvelles motorisations sur le confort acoustique des passagers pour proposer des solutions de réduction de bruit. Au cours de ce stage, l’accent sera mis sur la perception d’une source de bruit particulièrement audible au décollage et appelée « Buzz Saw Noise » dans le monde aéronautique.

Le stagiaire mènera une étude perceptive complète comprenant le développement d’outil de synthèse sonore, l’évaluation de l’impact de paramètres signal sur la perception et la réalisation de tests d’écoute.

Compétences requises

Un gout prononcé pour la perception sonore est bien entendu requis. Une première expérience dans le domaine serait idéale, mais une forte motivation pour ces sujets-là sera tout autant bienvenue. Des connaissances de base en traitement du signal et en acoustique sont attendues pour devenir autonome assez rapidement. Des connaissances en perception sonore et en pychoacoustique seraient un plus. Le stagiaire devra utiliser Matlab (connaissance et utilisation requises) et se former à MAX/MSP pour développer les outils de synthèse sonore.

Par ailleurs, l’équipe Bruit intérieur étant répartie entre un site à Toulouse et un à Hambourg, un bon niveau d’anglais est exigé pour participer à des réunions, rédiger son rapport de stage et présenter son travail. Le stage aura lieu à plein temps à Toulouse sur le site d’Airbus à Saint Martin du Touch.

Enfin, il sera aussi demandé au stagiaire d’être autonome, de faire preuve d’initiative et d’être rigoureux. Il sera encadré par un spécialiste de la perception sonore du bruit avion et par un spécialiste du bruit intérieur des avions.

Comment candidater

1) Envoyer un CV et une lettre de motivation à jean-francois.sciabica@airbus.com et francois.besluau@airbus.com 2) Candidater en parallèle sur le site internet d’Airbus à l’adresse suivante : https://company.airbus.com/careers/...

Attention, toute candidature incomplète ne sera pas prise en compte.

Ce stage sera rémunéré selon une grille de salaire définie par les ressources humaines d’Airbus


23. Stage DSP - Algorithmes de réverbération artificielle H/F


Lieu : 11 chemin de la Dhuy, 38240 Meylan
Encadrant : Kevin Arcas
Dates :01/02/2019 au 31/07/2019
Rémunération :3,75€ de l’heure
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Fondée à Grenoble (France) en 1999, ARTURIA est une société spécialisée dans le développement de logiciels et de matériels audio. Elle s’adresse principalement aux musiciens professionnels et amateurs.

Entreprise à taille humaine en fort développement (environ 75 personnes en France, aux USA, en Angleterre et au Mexique), ARTURIA se concentre sur l’innovation et s’efforce d’intégrer les dernières avancées en matière d’informatique et d’électronique.

Les développements innovants qu’elle a menés, associés à une capacité à inventer de nouveaux usages, ont conduit ARTURIA à recevoir de nombreuses récompenses internationales.

Dans cette équipe en forte croissance, on privilégie l’efficacité, l’esthétisme et le plaisir de travailler, ensemble, pour des clients tout aussi passionnés que les collaborateurs. Alors forcément, on y communique en transparence, on fête les réussites, on partage la connaissance tout comme l’exigence.

Venez partager votre expérience et votre vision du monde musical de demain !

Activités principales du stage L’équipe DSP (traitement numérique du signal) d’Arturia recherche un stagiaire pour la définition et implémentation d’algorithmes de réverbération artificielle pour un usage musical. Après une étude bibliographique sur les principes de génération de réverbération artificielle, le stagiaire aura la responsabilité de prototyper ces algorithmes et de les implémenter en temps réel en se basant sur les outils de développement de l’entreprise.

Profil recherché : Connaissances en traitement du signal numérique requises (filtrage, analyse de spectres, …). Des bases en acoustique seront appréciées. Outils logiciels : Matlab ou Python pour le prototypage. C++ pour l’implémentation en temps réel. Une sensibilité pour la technologie musicale serait un plus.


24. Stage DSP – effets audionumériques


Lieu : 11 chemin de la dhuy, 38240 Meylan
Encadrant : Kevin Molcard
Dates :01/02/2019 au 31/07/2019
Rémunération :3,75€ de l’heure
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Fondée à Grenoble (France) en 1999, ARTURIA est une société spécialisée dans le développement de logiciels et de matériels audio. Elle s’adresse principalement aux musiciens professionnels et amateurs.

Entreprise à taille humaine en fort développement (environ 75 personnes en France, aux USA, en Angleterre et au Mexique), ARTURIA se concentre sur l’innovation et s’efforce d’intégrer les dernières avancées en matière d’informatique et d’électronique.

Les développements innovants qu’elle a menés, associés à une capacité à inventer de nouveaux usages, ont conduit ARTURIA à recevoir de nombreuses récompenses internationales.

Dans cette équipe en forte croissance, on privilégie l’efficacité, l’esthétisme et le plaisir de travailler, ensemble, pour des clients tout aussi passionnés que les collaborateurs. Alors forcément, on y communique en transparence, on fête les réussites, on partage la connaissance tout comme l’exigence.

Venez partager votre expérience et votre vision du monde musical de demain !

Activités principales du stage Au sein de l’équipe DSP (traitement numérique du signal) d’Arturia le stagiaire aura pour mission la définition et l’implémentation de méthodes visant à réduire le repliement de spectre dans des effets audionumériques et des algorithmes de synthèse musicale.

Le repliement de spectre (aliasing en anglais) est un phénomène qui dégrade fortement la qualité du son. L’application de transformations non-linéaires à des signaux tels que la distorsion ou des filtres actifs peuvent être la cause d’aliasing.

Des méthodes de sur-échantillonnage ou de lissage de fonctions non-linéaires permettent de réduire le repliement généré par les non-linéarités et d’obtenir des signaux musicaux de meilleure qualité. Le stagiaire aura la responsabilité d’analyser, de prototyper ces méthodes éventuellement de les appliquer dans un effet audionumérique ou un étage de synthétiseur.

Profil recherché : Connaissances solides en traitement du signal numérique. Connaissance des outils logiciels : Matlab ou Python. Une sensibilité pour la technologie musicale serait un plus.


25. Mesures psychoacoustiques et électrophysiologiques de discrimination de l’intensité sonore : Influence du contexte


Site : Mesures psychoacoustiques et électrophysiologiques de discrimination de l’intensité sonore : Influence du contexte
Lieu : Laboratoire de Mécanique et d'Acoustique, UMR7031, CNRS, Marseille
Encadrant : Olivier Macherey & Sabine Meunier
Dates :01/03/2019 au 31/08/2019
Rémunération :Gratification CNRS forfaitaire de l’ordre de 500 euros/mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Notre système auditif opère le long d’une plage dynamique extrêmement large, avoisinant les 120 dB. De plus, notre capacité à discriminer l’intensité sonore le long d’une grande partie de cette dynamique est à peu près constante. L’étendue de cette sensibilité à l’intensité contraste avec le fait que la grande majorité des neurones du nerf auditif saturent pour des niveaux supérieurs à 60 dB SPL. En prenant l’hypothèse simple que la sonie (le corrélat perceptif de l’intensité sonore) est proportionnelle au nombre de décharges induites dans le nerf auditif, il semble étonnant que nos capacités de discrimination d’intensité ne soient pas bien meilleures à bas niveaux (pour lesquels beaucoup de neurones montrent un incrément de leur taux de décharge pour un incrément d’intensité) qu’à hauts niveaux (pour lesquels la majorité des neurones sont saturés et n’augmentent pas leur taux de décharge lorsque l’intensité augmente). Cet apparent paradoxe est nommé dans la littérature le « Dynamic range problem ». Une explication possible a été proposée dans des études électrophysiologiques récentes réalisées chez l’animal (Dean et al., Nat. Neurosci., 2005 ; Wen et al., J. Neurosci., 2009). Ces études ont montré que plusieurs neurones du système auditif pouvaient adapter leur taux de décharge à la distribution des niveaux sonores présentés. En d’autres termes, la plage dynamique d’un neurone donné peut se modifier de façon à ce que le niveau auquel le neurone soit le plus sensible dépende du niveau moyen des sons présentés en amont. Cette adaptation de la plage dynamique des neurones a été observée au niveau du nerf auditif ainsi qu’au niveau du colliculus inférieur qui fait partie des voies auditives centrales. Si ce phénomène est également présent chez l’homme, nous nous attendrions à ce que nos capacités de discrimination de l’intensité soient meilleures lorsque les sons à comparer sont précédés de sons précurseurs ayant un niveau similaire que lorsqu’ils sont précédés de sons précurseurs ayant un niveau très différent. Le but du stage sera de s’appuyer sur des données précédemment collectées au laboratoire pour tester cette hypothèse chez un groupe de sujets normo-entendants en utilisant à la fois des mesures psychophysiques (discrimination d’intensité) et électrophysiologiques (potentiels évoqués auditifs). Les implications d’un tel résultat sont à la fois fondamentales et appliquées. D’un point de vue fondamental, ils pourraient apporter de nouvelles informations sur le « dynamic range problem ». D’un point de vue appliqué, il a été supposé que la source de cette adaptation des neurones se situait au niveau des cellules ciliées. Or, ces cellules sont manquantes chez les personnes sourdes portant un implant cochléaire. Une application pourrait donc être de restaurer ce mécanisme par des techniques de traitement du signal avant de délivrer l’information sonore à ces sujets.

Le rôle du stagiaire sera de mettre en place un protocole de mesures psychoacoustiques et électrophysiologiques approprié, programmer les interfaces de tests en langage Matlab, tester un groupe de sujets normo-entendants, analyser les résultats et rédiger un rapport de stage.

Ce que nous recherchons : Un étudiant en master 2 Acoustique, Neurosciences, ou traitement du signal ou en stage de fin d’études d’école d’ingénieur ayant des connaissances et un vif intérêt pour l’audition.

Ce que nous offrons : Un stage de 4 à 6 mois dans l’Equipe Sons du Laboratoire de Mécanique et d’Acoustique. Vous développerez vos connaissances en psychoacoustique et apprendrez à mettre en place une expérience perceptive, passer des tests comportementaux avec des sujets normo-entendants et analyser les résultats de ces tests.


26. Multi-task deep learning pour la reconnaissance de modes de jeu en temps réel du violoncelle


Lieu : IRCAM, Equipes Représentations Musicales
Encadrant : Jean-Francois Ducher, Philippe Esling
Dates :du 18/02/2019 au 18/08/2019
Rémunération :Tarif en vigueur IRCAM
Mots-clés : Parcours ATIAM : Informatique musicale

Description

Résumé

La reconnaissance des modes de jeu instrumentaux en temps réel est un domaine de recherche relativement récent dans la communauté du Music Information Retrieval, avec des applications pour les systèmes de transcription automatique et les dispositifs musicaux interactifs (systèmes d’improvisation notamment).

En l’absence de bases de données correctement étiquetées pouvant servir à l’apprentissage des systèmes de reconnaissance, on met en oeuvre des stratégies d’apprentissage semi-supervisé s’appuyant d’une part, sur des données synthétiques produites avec des banques de sons spécialisées, d’autre part, sur des captations audio de solistes non étiquetées.

Dans un premier temps, les travaux ont porté sur les quelques modes les plus représentés dans les banques de sons. Il s’agit maintenant de classer les modes de jeu simultanément selon plusieurs axes grâce à des stratégies de multi-task learning.

Etat de l’art

Sur des sujets connexes à l’identification des modes de jeu instrumentaux, l’effort de la communauté du M.I.R. s’est porté sur l’identification d’instruments dans des extraits audio de notes isolées ou de solos instrumentaux, puis plus récemment, sur l’identification des instruments les plus saillants dans des séquences polyphoniques. Après avoir vu dans les articles une prolifération de features très exotiques, la tendance consiste depuis quelques années à revenir à des features simples calculés à pas temporel régulier et à laisser la machine apprendre elle-même comment identifier dans cette trame bi-dimensionnelle des patterns permettant la classification. Suite au succès des réseaux de neurones à convolution dans les tâches de classification d’images, leur usage s’est beaucoup développé dans les tâches d’identification d’instruments en s’appuyant sur diverses variantes de spectrogrammes[1].

Concernant l’identification des modes de jeu, Lostanen et al. [2] prend une approche transversale à tous les instruments en se focalisant sur la trace du geste instrumental dans l’audio mais il ne considère que des extraits audio de notes isolées et ne s’appuie que sur une banque de sons. On sait depuis Livshin [3] que les résultats d’évaluation utilisant une seule base ne sont pas nécessairement une indication des capacités de généralisation du processus de classification et donc de son intérêt pour des tâches de classification réalistes dans différentes conditions d’enregistrement. Lostanen mentionne dans sa bibliographie ([4] à [8]) des articles relatifs à l’identification des modes de jeu de différents instruments, mais aucun ne concerne directement les modes de jeu contemporains des instruments à cordes.

Objectifs

Les travaux en cours à l’Ircam visent à mettre en oeuvre des stratégies d’apprentissage semi-supervisé (par exemple domain-adversarial training [9]) s’appuyant d’une part, sur des données synthétiques produites avec les quelques banques de sons spécialisées disponibles, d’autre part, sur des captations audio de solistes non étiquetées.

Ces travaux ont porté sur une douzaine de modes les plus représentés dans les banques de sons, faisant l’impasse sur les combinaisons possibles de ceux-ci. Exemple :
- excitateur utilisé en main droite : bois de l’archet (con legno tratto)
- nature de l’intéraction : staccato,
- lieu de l’interaction : sul ponticello (vers le chevalet)
- en main gauche : sans vibrato.

Il s’agit donc maintenant de classer les modes de jeu simultanément selon plusieurs axes grâce à des stratégies de multi-task learning [10]

L’objectif du stage serait :

- de réaliser un nouveau jeux de données synthétiques avec les banques de sons disponibles pour la partie supervisée de l’apprentissage
- d’évaluer la pertinence de différents algorithmes de multi-task learning pour une tâche d’apprentissage semi-supervisé, puis de les implémenter et d’en comparer les résultats.

Bibliographie

• [1] Yoonchang Han, Jaehun Kim, Kyogu Lee, Yoonchang Han, Jaehun Kim, and Kyogu Lee. 2017. Deep convolutional neural networks for predominant instrument recognition in polyphonic music. Proc. Trans. Audio Speech Lang. Process. 25, 1(2017), 208–221 • [2] Lostanlen, Andén, and Lagrange. Extended playing techniques : the next milestone in musical instrument recognition. Proc. DLfM 2018. • [3] Arie Livshin. Automatic Musical Instrument Recognition and Related Topics. Université Pierre et Marie Curie - Paris VI, 2007. English. • [4] Mauricio A. Loureiro, Hugo Bastos de Paula, and Hani C. Yehia. 2004. Timbre Classification Of A Single Musical Instrument. In Proc. ISMIR. • [5] Adam R. Tindale, Ajay Kapur, George Tzanetakis, and Ichiro Fujinaga. 2004. Retrieval of percussion gestures using timbre classification techniques. In Proc. ISMIR. • [6] Raphael Foulon, Pierre Roy, and François Pachet. 2013. Automatic classification of guitar playing modes. In Proc. CMMR. Springer. • [7] Yuan-Ping Chen, Li Su, and Yi-Hsuan Yang. 2015. Electric Guitar Playing Technique Detection in Real- World Recording Based on F0 Sequence Pattern Recognition. In Proc. ISMIR. • [8] Li Su, Li-Fan Yu, and Yi-Hsuan Yang. 2014. Sparse Cepstral, Phase Codes for Guitar Playing Technique Classification. In Proc. ISMIR. • [9] Y. Ganin, E. Ustinova, H. Ajakan, P. Germain, H. Larochelle, F. Laviolette, M. Marchand, V. Lempitsky. "Domain-Adversarial Training of Neural Networks", Journal of Machine Learning Research 2016, vol. 17, p. 1-35. • [10] Caruana, Rich. 1997. "Multitask Learning". Machine Learning, vol 28.


27. Multimodal variational learning for musical generation


Lieu : IRCAM, Equipes Représentations Musicales
Encadrant : Philippe Esling, Mathieu Prang
Dates :18/02/2019 au 18/08/2018
Rémunération :Tarif en vigueur IRCAM
Mots-clés : Parcours ATIAM : Informatique musicale

Description

This project aims to develop new simultaneous representations for symbolic and audio music. The goal is to represent musical symbols and corresponding short excerpts of audio in the same space called a multimodal embedding space. This approach allows to address the problem of matching musical audio directly to musical symbols. Moreover, theses kind of spaces could be very powerful tools for the orchestration field. By disentangling the correlation between the orchestral score and the audio signal result, we can provide efficient systems to analyze and generate specific orchestral effects. It has been shown that embedding spaces provide metric relationships over semantic concepts [Mikolov13]. These approaches can generate analogies, infer missing modalities and even perform knowledge inference [Socher13]. Hence, metric relationships could be used for musical purposes. In the context of orchestration, this would allow us to find audio signals with identical timbre properties but that come from widely different musical notations (different scores leading to a similar perceptual effect).

In order to capture features of both modalities and represent them within a joint space, the idea is to train two encoding models simultaneously so that they map to similar points in the common space. First, you will have to prepare your dataset by synthesizing and aligning the audio that correspond to given MIDI files. Then, you will implement the model proposed by Dorfer et al which is composed by two networks. You will train it on your synthesized dataset. Once your model will be efficient on the training data, you will test it on real data through two tasks : (1) piece/score identification from audio queries and (2) retrieving relevant performances given a score as a search query. Finally, you will propose (or even implement) improvements in the architecture or the training of the model.

A wide set of first-of-their-kind composition applications and music generation tasks can then be explored from this multimodal inference. The link between different perceptual effects could also be evaluated through metric analysis, which will contribute to the bases of a theory of orchestration. Finally, as the generative mechanism of the variational learning could be exploited to directly generate orchestrations based on perceptual effects by simply moving across the latent space. Hence, this will aim to understand the higher-level semantic regularities, along with the innovative re-use of the embedding spaces in a generative framework.

Bibliographie

Mikolov, T. Yih, WT. & Zweig, G. (2013) Linguistic regularities in continuous space word representations. In HLT-NAACL, pages 746–751.

Socher, R. Ganjoo, M. Manning, C. & Ng A. (2013) Zero-shot learning through cross-modal transfer. In Advances in neural information processing systems, pages 935–943.

Michalski, V. Memisevic, R. and Konda, K. (2014). Modeling deep temporal dependencies with recurrent grammar cells. In Advances in neural information processing systems, pages 1925– 1933.

Matthias Dorfer, Jan Hajic Jr, Andreas Arzt, Harald Frostel, and Gerhard Widmer. Learning audio–sheet music correspondences for cross-modal retrieval and piece identification.Transactions of the International Society for Music Information Retrieval, 1(1), 2018.


28. Hierarchical variational temporal learning for dynamic musical audio synthesis


Lieu : IRCAM, Equipe Représentations Musicales
Encadrant : Philippe Esling, Axel Chemla--Romeu-Santos
Dates :18/02/2019 au 18/08/2018
Rémunération :Tarif en vigueur IRCAM
Mots-clés : Parcours ATIAM : Informatique musicale

Description

Generative systems are machine-learning models whose training is based on two simultaneous optimization tasks. The first is to build a latent space, that provides a low-dimensional representation of the data, eventually subject to various regularizations and constraints. The second is the reconstruction of the original data through the sampling of this latent space. These systems are very promising because their space is a high-level, "over-compressed" representation that can be used as an intermediate space for several tasks, such as visualization, measurements, or classification.

However, one of the most prevalent problem of ML algorithms applied to musical creativity is that they only process a single temporal scale or at best a finite set of small scales. The goal of this project is to work on an approach able to process multiple temporal granularities through a hierarchical multi-scale processing. Hence, the main goal will be to develop a recursive form of learning by iteratively learning increasingly temporally complex signals. A first approach towards this idea is to first learn a variational latent space on small chunks of audio (or audio grains) directly from the raw audio and iteratively build latent spaces for more long and complex audio samples.

The goal of this internship will be to both provide a generative system based on raw audio, but also to evaluate its use and control for musical creativity.

Bibliographie

[1] Kingma, D. P., & Welling, M. (2013). Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114. [2] Lei Cai, Hongyang Gao, and Shuiwang Ji, “Multi-stage variational auto-encoders for coarse-to-fine image generation,” arXiv preprint arXiv:1705.07202, 2017. [3] Antti Rasmus, Mathias Berglund, Mikko Honkala, Harri Valpola, and Tapani Raiko, “Semi- supervised learning with ladder networks,” in Advances in Neural Information Processing Systems, 2015, pp. 3546–3554.18 [4] Casper Kaae Sønderby, Tapani Raiko, Lars Maaløe, Søren Kaae Sønderby, and Ole Winther, “Ladder variational autoencoders,” in Advances in neural information processing systems, 2016, pp. 3738–3746.


29. Modélisation séquence-à-séquence pour la conversion de l’émotion de la voix


Lieu : IRCAM – Analyse et Synthèse des Sons
Encadrant : Nicolas Obin
Dates :01/02/2019 au 30/06/2019
Rémunération : 550€ / mois + avantages sociaux
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Contexte :

La voix est devenue aujourd’hui un enjeu majeur de l’intelligence artificielle et des assistants personnels : la voix permet d’incarner et d’humaniser la machine. La synthèse vocale est aujourd’hui un enjeu majeur du monde numérique : des assistants vocaux et des robots compagnons dans le domaine de l’assistance personnalisée (cf. Google WaveNet, Van den Oord, 2016). Néanmoins, la synthèse de la parole se limite à des voix relativement neutres et standardisées pour des applications précises et des scénarios d’interactions souvent à but purement informatifs (smartphones, GPS, annonces, etc…), avec un timbre « clair » et une prosodie « normée » . Aujourd’hui, on sait modifier les caractéristiques de bas niveau de la voix (la hauteur, les durées, et le « timbre ») de manière extrêmement réaliste, et même en « temps-réel » à la sortie d’un microphone (par exemple, ircamTools TRAX). En revanche, il existe encore un vide de connaissances pour modifier des caractéristiques de plus haut niveau, comme l’expressivité. En particulier, pour modéliser la prosodie de la voix : c’est-à-dire l’évolution dynamique et cohérente des hauteurs, intensités, durées, et de la qualité vocale (Beller, 2009 ; Veaux 2011 ; Aihara, 2012) et récemment à partir de réseaux de neurones, (Luo, 2016 ; Robinson, 2018). La capacité de modéliser la variabilité expressive de la voix humaine permettra de franchir une étape décisive dans la compréhension de la voix humaine et des facteurs de sa variabilité expressive. Elle rendra possible la création de voix de synthèse munie d’une personnalité adaptée à son interlocuteur, et capable de varier son expression en fonction de la situation d’interaction, et la réalisation de solutions innovantes permettant de sculpter la personnalité d’une voix pour le design sonore de la voix dans l’industrie créative.

Objectifs :

L’objectif du stage est d’implémenter un algorithme de conversion de l’émotion de la voix de l’Ircam, par extension des travaux précédemment réalisés dans l’équipe Analyse et Synthèse des Sons (Veaux 2011 ; Robinson, 2018). Les travaux de recherche comprendront :

-  La modélisation de la prosodie de la voix par réseaux de neurones, à partir d’architectures RNN (Sun, 2015), GAN (Goodfellow, 2014). La modélisation de la prosodie pourra soit être apprise par des modèles paramétriques (F0 et durée dans un premier temps) et structurés pour apprendre la prosodie sur plusieurs échelles temporelles (syllabe, phrase, etc…) (Yin, 2015 ; Luo, 2017 ; Wang, 2017).
-  Une modélisation non-paramétrique « bout-en-bout » (« end-to-end ») sera envisagée pour s’émanciper des limitations d’une représentation paramétrique de la voix expressive : limitation dû aux erreurs de définition ou d’estimation des paramètres, particulièrement pour le traitement de voix expressives et pour dépasser une représentation de la prosodie forcément limitée pour modéliser la complexité de l’expression vocale des émotions. Par exemple : la F0 seule n’est pas suffisante pour produire des transformations de l’émotion réellement naturelles, et les modèles de prosodie actuels ne permettent pas de représenter des phénomènes spectraux et des non-linéarités pourtant essentielles dans l’expression des émotions.
-  La formalisation de stratégies d’augmentation de données pour l’apprentissage de la transformation des émotions, souvent limités car contraint à des bases de données spécifiques et petites en terme de volume de données.

Le stage s’appuiera sur les connaissances actuelles en traitement automatique de la voix de l’équipe Analyse et Synthèse (AS) des Sons à l’Ircam, et de la logistique nécessaire à l’apprentissage profond (Python, TensorFlow, GPU). Les problèmes abordés pendant le stage seront sélectionnés en début du stage après une phase d’orientation et une étude bibliographique. Les modèles réalisés seront intégrés au moteur de transformation superVP pour réaliser la transformation de l’émotion à partir d’un enregistrement de voix, et le stagiaire portera la mise en œuvre d’une expérience perceptive finale pour évaluer la qualité des conversions réalisées. Par ailleurs, le stagiaire bénéficiera des bases de données de voix expressives de AS, et participera activement à leur agrandissement par l’enregistrement de nouveaux enregistrements d’acteurs professionnels en fonction des besoins du stage. Les solutions réalisées au cours du stage pourront à terme être intégrées au logiciel d’édition sonore Audiosculpt développé par AS.

Bibliographie

[Aihara, 2012] R. Aihara, R. Takashima, T. Takiguchi, Y. Ariki, GMM-Based Emotional Voice Conversion Using Spectrum and Prosody Features, American Journal of Signal Processing, 2(5) : 134-138, 2012. [Beller, 2009] G. Beller. “Analyse et modèle génératif de l’expressivité. Application à la parole et à l’interprétation musicale », PhD. thesis, Ircam, 2009. [Deng, 2013] J. Deng, Z. Zhang, E. Marchi, B. Schuller. Sparse Autoencoder-based Feature Transfer Learning for Speech Emotion Recognition, Humaine Association Conference on Affective Computing and Intelligent Interaction (ACII), 2013. [Goodfellow, 2014] I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, Y. Bengio. Generative Adversarial Networks, Advances in neural information processing systems, 2014. [Luo, 2016] Z. Luo, J. Chen, T. Nakashika, T. Takiguchi, Y. Ariki, Emotional Voice Conversion Using Neural Networks with Different Temporal Scales of F0 based on Wavelet Transform, ISCA Speech Synthesis Workshop, 2016. [Robinson, 2018] C. Robinson, N. Obin, Sequence-to-sequence Modeling of F0 for Speech Emotion Conversion, soumis à IEEE International Conference on Audio, Speech, and Language Processing (ICASSP), 2019. [Sun, 2015] L. Sun, S. Kang, K. Li, and H. Meng. “Voice conversion using deep Bidirectional Long Short-Term Memory based Recurrent Neural Networks”, IEEE International Conference on Audio, Speech, and Language Processing (ICASSP), 2015. [Tao, 2006] Jianhua Tao, Yongguo Kang, and Aijun Li. Prosody Conversion From Neutral Speech to Emotional Speech . IEEE Transactions on Audio, Speech, and Language Processing, Vol. 14 (4), 2006. [Van den Oord, 2016] A. van den Oord et al., WaveNet : A generative model for raw audio, Proceedings of Interspeech, San Francisco, 2016 (https:// deepmind.com/blog/wavenet- generative-model-raw-audio/). [Veaux, 2011] C. Veaux, X. Rodet, “ Intonation Conversion from Neutral to Expressive Speech”, Interspeech , Florence, Italy, p. 2765-2768, 2011. [Wang, 2017] X. Wang, S. Takaki, and J. Yamagishi, “An RNN-Based quan- tized F0 model with Multi-Tier feedback links for Text-to- Speech synthesis,” in Interspeech 2017, 2017. 
 [Yin, 2015] Xiang Yin, Ming Lei, Yao Qian, Frank K. Soong, Lei He, Zhen-Hua Ling, Li-Rong Dai, Modeling F0 Trajectories in Hierarchically Structured Deep Neural Networks , Speech Communication, 2015.


30. Sound radiation of light vibrating membranes


Lieu : IMSIA ENSTA Paristech Palaiseau
Encadrant : Benjamin Cotté, Olivier Doaré, Emil Garnell, Corinne Rouby (IMSIA ENSTA Paristech)
Dates :01/02/2019 au 30/06/2019
Rémunération :572 €/mois
Mots-clés : Parcours ATIAM : Acoustique

Description

Context

At IMSIA, researches are performed on the use of active plates or membranes to produce sounds (piezoelectric plates, dielectric elastomers membranes). The coupled electro-mechanical equations governing the linear dynamics of these structures are solved either analytically of by finite elements. We are then able to compute transfer functions between electrical input and dynamical output of the solid (displacement, velocity, acceleration).

To compute the acoustic radiation, the classical approach using a Rayleigh integral is used for now. This approach is valid when the vibrating structure is flat and baffled in an infinite plane. Therefore, the assumptions required to use this integral are not fulfilled in the present case. There is thus a need to properly model and solve the radiation of non-plane vibrating structures, including the diffraction by the solid it is embedded it and by the vibrating surface itself.

Objectives

One objective of the internship is to develop a numerical tool based on Python FeniCS to calculate the radiation of a compliant structure baffled in a perfectly rigid solid. Two approaches may be used to solve this kind of problem. The first one involves the meshing of the fluid domain using finite elements, and considering an absorbing outer layer in order to prevent incoming waves due to reflection on the domain outer boundaries. The second approach consists of utilizing the boundary element method (BEM), where only the fluid-solid boundary is meshed. Both methods have pros and cons. The first step will be to choose one of the two methods. Next, numerical simulations will be performed and compared to simple geometries where analytical or well documented experimental results exist. The work will be then to investigate numerically a configuration studied experimentally in the lab and include the pressure feedback on the membrane dynamics.


31. Optimization of the acoustic radiation of inflated piezoelectric plates


Lieu : IMSIA ENSTA Paristech Palaiseau
Encadrant : Olivier Doaré IMSIA ENSTA Paristech
Dates :01/02/2019 au 30/06/2019
Rémunération :572 €/mois
Mots-clés : Parcours ATIAM : Acoustique

Description

Context

At IMSIA researches are carried out on the dynamics and vibrations of plates or membranes used to produce sound. In the context of modal analysis, we can show how the radiated sound pressure level, function of the frequency and the position, depends on the geometry of the plate and on the piezoelectric patches distribution.

Objectives

During this internship, the studied system will consist of a plate partially covered by piezoelectric patches, subjected to a static pressure difference between its two faces. When imposing a time varying voltage at the electrodes, dynamical modes of the system are forced and sound is radiated. The system will be studied numerically and experimentally before performing an optimization procedure to look for the system’s geometry that best satisfy various criteria (spectral equilibrium, directivity, …).

Numerical simulations will be performed will the help of the Freefem++ finite element software. An already existing code allows to compute the linear dynamics (eigenmodes and eigenfrequencies) around a nonlinear equilibrium position. Radiation is up to now calculated using the Rayleigh integral, which assumes that the plate is baffled in an infinite rigid plane.

The experimental work will consist of a small drum whose skin is a piezoelectric membrane. Different transfer functions for various values of the physical parameters of the system will be measured and compared to theoretical predictions based on the numerically computed eigenmodes.

In parallel of this experimental/numerical analyses, a numerical optimization of the system will be performed. The first optimization objective could for instance be the maximization of the modal forcing on one mode, respectively to the others, so that the radiation is dominated by a single mode. Next, various directivity objectives will be considered as well as taking into account diffraction if the plate is not baffled in an infinite plane anymore.


32. Contrôle par le souffle et la voix d’un « avatar-matériel » : ajout de nouvelles modalités son/image dans le dispositif interactif ELEMENTA et analyse de leur impact dans le ressenti


Site : Laboratoire de Mécanique et d’Acoustique Marseille
Lieu : LMA-CNRS, 4 impasse Nikola Tesla, 13453 Marseille Cedex 13
Encadrant : Patrick Sanchez (Equipe SONS, LMA) et Nathalie Delprat (LIMSI-CNRS)
Dates :du 01/02/2019 au 30/06/2019
Rémunération :gratifications CNRS standards
Mots-clés : Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Descriptif :

Le projet interdisciplinaire ELEMENTA a pour objectif l’étude des liens entre matérialité virtuelle, conscience corporelle et imaginaire à travers le développement d’un dispositif interactif permettant à une personne de voir en temps-réel son corps avec la densité et la forme d’une matière élémentaire (nuages, gouttelettes d’eau, flammes…). Il regroupe plusieurs laboratoires scientifiques (dont le LIMSI-CNRS à Orsay qui a développé le prototype RêvA, le LMA à Marseille (Laboratoire de Mécanique et d’Acoustique), le CRPPC à Lyon (Centre de Recherche en Psychopathologie et Psychologie Clinique) et le CGGG (Centre Gilles Gaston Granger) à Aix-en-Provence ainsi que des partenaires artistiques comme le Conservatoire de Musique de Marseille et le Pôle Supérieur de Danse de Provence/Côte d’Azur.

La transformation virtuelle de la densité corporelle peut créer des illusions perceptives particulières et modifier le sentiment même de soi (sensations de morcellement du moi, de corps qui se vide, qui se dilue dans l’espace pour certaines personnes). Plusieurs pistes sont explorées : l’utilisation du dispositif comme outil de médiation avec des patients, comme outil de modélisation en sciences cognitives mais aussi comme outil de production artistique pour des performances de danse ou de musique augmentée (par exemple installation interactive Murmure présentée à l’exposition Biomorphisme à la Friche Belle de mai à Marseille jusqu’en février 2019). Le prix CNRS-Images a été décerné en juin 2018 à N. Delprat pour cette recherche et le projet fera l’objet d’un documentaire en 2019.

Le but principal du stage est d’enrichir ce dispositif de nouvelles interactions son/image avec le contrôle de l’avatar-matière par le souffle et la voix et d’étudier leur impact dans ce qui a été appelé « l’expérience de Rêverie Augmentée », en référence aux travaux du philosophe Gaston Bachelard qui ont inspiré cette démarche en recherche et création. Aucun port de casque ou capteurs n’est nécessaire. Une caméra Kinect récupère le squelette numérique de la personne et un traitement des données basé sur un moteur de particules (C++, OpenGL) permet de projeter en temps réel le rendu graphique et sonore sur un écran. Les paramètres de contrôle sont accessibles via OSC et l’interface est gérée par Max/MSP. Grâce au patch MaxELEMENTA, il est aussi possible de générer des sons et effets audio par synthèse granulaire et de contrôler des séquences temporelles.

Le dispositif a été monté au LMA afin de pouvoir travailler spécifiquement sur les aspects audio et utiliser les outils développés par l’équipe SONS, notamment dans la captation du jeu des instruments à vent mais aussi à travers la plateforme MAS (Musique, Audio, Sons). D’autre part, les collaborations avec le PNSD et le CRR de Marseille permettront de mettre au point des campagnes de tests avec des étudiants danseurs et musiciens et d’avancer dans la recherche sur l’impact de l’audio dans le ressenti.

Dans ce cadre, le stagiaire aura comme objectifs :
- de participer à l’intégration dans l’interface des paramètres sonores récupérés (voix, souffle mais aussi signaux physiologiques) par le boitier d’acquisition composé d’une carte Arduino et d’un microcontrôleur ESP32
- d’analyser ces signaux et de les traiter afin de définir de nouveaux mappings sons/images
- de développer de nouveaux patchs à partir du programme de synthèse granulaire afin d’enrichir la base d’effets audio disponibles
- de participer à la mise au point des protocoles expérimentaux avec différents groupes de sujets (dont danseurs et musiciens) pour tester ces nouveaux mappings
- d’étudier l’impact de cette nouvelle modalité de contrôle, notamment à travers l’analyse statistique des descripteurs du mouvement et l’analyse des données obtenues pendant les expériences (programme en Python).

Le travail d’interfaçage, d’analyse et de traitement des paramètres pour la quantification du ressenti selon le type de mappings son/image s’inscrira dans le cadre de l’approche interdisciplinaire du projet ELEMENTA et pourra donner lieu à des interactions tant au niveau recherche que création avec les différents partenaires lors de sessions de travail communes prévues sur la période du stage.

Compétences requises : programmation en Max/MSP et C/C++ La connaissance d’OpenGL et de Python est un plus – idem pour des compétences en électronique et capteurs. Intérêt pour l’approche art-science et les collaborations interdisciplinaires.

Contacts : patrick.sanchez@lma.cnrs-mrs.fr et nathalie.delprat@limsi.fr

Bibliographie

Blanke O., Metzinger T. (2008) Full-body illusions and minimal phenomenal selfhood. Trends in Cognitive Science, 13 (1), 7-13. Damasio, A. (1999). Le sentiment même de soi - Corps, émotion, conscience. Paris, Odile Jacob. Delprat, N. , (2014). Walking clouds and Augmented Reverie, Leonardo MIT Press Journal, 47, (1), 68-69. Lopez C. (2015) Making sense of the body : the role of vestibular signals. Multisensory Research, 28(5–6) : 525–557. Preston, C., Kuper-Smith, B.J., Ehrsson, H.H. : Owning the body in the mirror : The effect of visual perspective and mirror view on the full-body illusion. Scientific Reports (2015) 5:18345. M. Rébillat, X. Boutillon, E. Corteel, and B. F. G. Katz, “Audio, visual, and audio-visual egocentric distance perception by moving subjects in virtual environments,” ACM Trans. Appl. Percept., vol. 9, pp. 19:1–19:17, Oct. 2012, doi:10.1145/2355598.2355602. I. Viaud-Delmon, O. Warusfel « From ear to body : the auditory-motor loop in spatial cognition », Frontiers in Neuroscience, vol. 8, n° 283, Septembre, 2014 Slater M., Sanchez-Vives M.V. (2014) Transcending the Self in Immersive Virtual Reality IEEE Computer , 47 (7), 24-30.


33. [Sounds in the city] - Ressenti de l’art sonore dans l’espace public


Site : CIRMMT
Lieu : Université McGill et CIRMMT (Centre interdisciplinaire de Recherche en Musique Media et Technologie) Montréal, Québec, Canada
Encadrant : Catherine Guastavino, Professeure
Dates :Février 2019 à juillet ou aout 2019
Rémunération :500 CAD par mois, possibilité de demander des financements de mobilité externes (MITACS Globalink)

Description

Le projet Sounds in the city regroupe des chercheurs, designers sonores, compositeurs, professionnels de l’acoustique et de l’urbanisme et des citoyens, pour repenser ensemble le rôle du sonore en ville et améliorer la qualité de vie des citadins en intégrant les considérations sonores lors d’interventions urbaines.

Dans ce cadre, ce stage vise à étudier comment des installations sonores, incluant la musique, peuvent améliorer l’ambiance sonore d’espaces publics. Dans nos études précédentes, nous avons pu observer qu’en présence d’installations sonores, les usagers restaient plus longtemps dans les lieux, interagissent plus avec les autres et percevaient le lieu comme plus étant agréable, convivial, tout aussi calme et moins bruyant.

Sur la base de ces résultats, nous avons pu émettre des recommandations en terme de design sonore pour permettre de renforcer la vocation d’un espace public au moyen d’une installation sonore, que nous souhaitons valider en évaluant le ressenti des usagers.

Le stage vise d’une part à contribuer à la conception d’une installation sonore qui sera déployée pendant l’été 2019 sur une nouvelle place publique, et d’autre part à évaluer le ressenti des usagers de la place avant et après installation pour mieux comprendre. L’impact et la réception des œuvres sonores déployées sur l’espace public sera évalué au moyen de questionnaires auprès des usagers de l’espace et d’observations des usages.

L’étudiant(e) sera encadré par Catherine Guastavino de l’Université McGill, spécialiste des ambiances sonores urbaines, et Etienne Legast de la coopérative d’artiste sonore Audiotopie (www.audiotopie.com) en collaboration avec la Ville de Montréal dans le cadre de l’aménagement d’une nouvelle place publique dans l’arrondissement du Plateau Mont-Royal. Le stagiaire travaillera au sein d’une équipe interdisciplinaire de recherche en étroite collaboration avec des étudiants des différents cycles au CIRMMT.

L’étudiant(e) devra démontrer une sensibilité à l’environnement sonore, à la conception sonore et à la psychoacoustique et une curiosité interdisciplinaire. Des bases musicales seraient appréciées afin de participer à l’élaboration du contenu. English competency is an asset.

Nous pourrions accueillir jusqu’à 2 étudiant(e)s sur ce sujet suivant les compétences et intérêts de chacun.

Bibliographie

https://www.sounds-in-the-city.org/...

www.audiotopie.com

Steele, D., Bild, E., & Guastavino, C. (2016, August). Evaluation of an urban soundscape intervention with music : quantitative results from questionnaires. In INTER-NOISE and NOISE-CON Congress and Conference Proceedings (Vol. 253, No. 4, pp. 4627-4637). Institute of Noise Control Engineering.

Bild, E., Tarlao, C., Guastavino, C., & Coler, M. (2016, August). Sharing music in public spaces : social insights from the Musikiosk project (Montreal, CA). In INTER-NOISE and NOISE-CON Congress and Conference Proceedings (Vol. 253, No. 5, pp. 3657-3666). Institute of Noise Control Engineering.

Steele, D., Legast, E., Trudeau, C., Guastavino, C. (2019, July). Sounds in the City : Improving the soundscape of a public square through sound art. In Proceedings of the International Congress on Sound and Vibration.


34. Automatic Piano Transcription using Deep Neural Networks


Site : Automatic Piano Transcription using Deep Neural Networks
Lieu : Equipe Analyse/Synthèse IRCAM, 1, place Igor-Stravinsky, 75004 Paris
Encadrant : Axel Roebel, Remi Mignot
Dates :du 01/02/2019 au 30/06/2019
Rémunération : 600€ / month + benefits (tickets RATP and ticket resto)
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Context :

The Analysis/Synthesis team of IRCAM has a long history in studying automatic music transcription algorithms covering transcription of tonal [Yeh 2010] and percussive [Roebel 2015, Jacques 2018] instruments. Recent research activities concerned with transcription of polyphonic piano music are strongly dominated by algorithms based on deep learning [Sigtia 2016, Wang 2017, Hawthorne 2018]. A central precondition for successful application of deep learning methods for transcription are sufficiently large, reliably annotated datasets. For piano transcription the dataset that is nearly exclusively used is the MAPS database [Emiya 2010]. Unfortunately, due to weaknesses of the DisKlavier that was used for generation of this dataset, the ground truth contains significant offsets and missing notes.

Objectives :

The aim of the present internship is to develop an automatic approach to generating precisely annotated piano transcription datasets using DisKlaviers. The method will use appropriate splitting of the midi tracks such that the major weaknesses of existing DisKlaviers can either be avoided or compensated for in a post processing stage. The methods will be practically experimented using the DisKlavier available at IRCAM, The generated datasets will be used to evaluate the impact of the deficiencies of the MAPS database on state of the art piano transcription methods. All implementations will be performed using python and the Tensorflow framework [TF 2017]. The networks will be trained on the GPU cluster of the Analysis/Synthesis team.

The implementation of the tools for automated database creation that will be realized during the internship should be made publicly available with the aim to trigger a community effort towards the construct of a new reference piano database built entirely with DisKlaviers available in the various research teams interested in piano transcription.

Bibliographie

[Emiya 2010], V. Emiya, et al., “MAPS - A piano database for multipitch estimation and automatic transcription of music”, Inria Research Report, https://hal.archives-ouvertes.fr/in..., 2010.

[Hawthorne 2018] C. Hawthorne et al., “Onsets and frames : dual objective piano transcription”, Proc ISMIR 2018.

[Jacques 2018] C. Jacques and A. Roebel, “Automatic drum transcription with convolutional neural networks”, Proc Int. Conf on Digital Audio Effects (DAFx), pp.80-86, 2018.

[Roebel 2015] A. Roebel and J.P. Puig et al (2015), « On automatic drum transcription using non-negative matrix deconvolution and itakura saito divergence », Int Conf. ASSP, pp. 414-418.

[Sigtia 2016] S. Sigtia and E. Benetos and S. Dixon, “An End-to-End Neural Network for Polyphonic Piano Music Transcription”, IEEE/ACM Transactions on Audio Speech and Language Processing, vol 24, no. 5, pp. 927 – 939, 2016.

[TF 2017] https://www.tensorflow.org

[Wang 2017] Q. Wang and R. Zhou and Y. Yan, ”A two-stage approach to note-level transcription of a specific piano”, Applied Sciences, https://www.mdpi.com/2076-3417/7/9/..., vol 7, no. 9, pp. 901, 2017.

[Yeh 2010] C. Yeh, A. Roebel X. Rodet (2010). « Multiple Fundamental Frequency Estimation and Polyphony Inference of Polyphonic Music Signals », IEEE Transactions on Audio, Speech and Language Processing, Vol. 18, No 6, pp. 1116-1126


35. Invertible Speech Encodings for Speech and Singing Synthesis


Site : Invertible Speech Encodings for Speech and Singing Synthesis
Lieu : Analysis/Synthesis team, IRCAM, 1, place Igor-Stravinsky, 75004 Paris
Encadrant : Axel Roebel (axel.roebel@ircam.fr), Nicolas Obin (Nicolas.Obin@ircam.fr)
Dates :01.02.2019 - 30.07.2019
Rémunération : 600€ / month + benefits (tickets RATP and ticket resto)
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Context

The Analysis/Synthesis team of IRCAM has a long history in developing state of the art speech and singing synthesis and - transformation algorithms [Beller 2009, Roebel 2010, Lanchantin 2011, Ardaillon 2017]. The recent success of deep learning based speech synthesis systems [Oord 2016, Blaauw 2017, Shen 2017] has fundamentally shifted the focus of speech synthesis research away from HMM and concatenative approaches towards deep neural networks that directly learn to convert the input text into a voice representation (mel-band or STFT magnitude spectrograms) that are then converted into speech using either classical methods [Griffin and Lim 1984] or the WaveNet vocoder [Shen 2017, Oord 2017, Lorenzo-Trueba 2018]. WaveNet vocoders working on mel-band magnitude input are very slow, complex and computationally rather costly. Given the fact that the mel band - and STFT magnitude representation cannot be inverted unambiguously the question of the optimal intermediate speech representation seems of central importance.

Objectives :

The aim of the present internship is to develop new representations of speech and singing voice signals for use in speech - or singing synthesis. A central objective of this work is to devise a computationally efficient, invertible representation of arbitrary voice signals. The approaches to be studied will not be disclosed publically. The intern will develop innovative encoder/decoder signal processing chains and evaluate them using speech and singing databases, and investigate into the use of the new approaches in the context of Tacotron2 [Shen 2017] type speech synthesis systems. All implementations will be performed using python and the Tensorflow framework [TF 2017]. The networks will be trained on the GPU cluster of the Analysis/Synthesis team.

Bibliographie

[Ardaillon 2017] L. Ardaillon, “Synthesis and expressive transformation of singing voice”, PhD thesis Université Paris 6 (UPMC),2017.

[Beller, 2009] G. Beller. “Analyse et modèle génératif de l’expressivité. Application à la parole et à l’interprétation musicale », PhD. thesis, Ircam, 2009.

[Blaauw 2017] M. Blaauw and J. Bonada, “A Neural Parametric Singing Synthesizer Modeling Timbre and Expression form Natrual Songs”, Applied Sciences (https://www.mdpi.com/2076-3417/7/12/1313), vol 7, no 12, p. 1313, 2017.

[Roebel 2010] A. Roebel, « Shape-invariant speech transformation with the phase vocoder”, Proc. International Conf. on Spoken Language Processing (InterSpeech) pp. 2146-2149, 2010.

[Lanchantin 2011] P. Lanchantin, et al. ,” Vivos Voco : A survey of recent research on voice transformation at IRCAM”, Proc. International Conf on Digital Audio Effects (DAFx), pp. 277-285, 2011.

[Lorenzo-Trueba 2018] J. Lorenzo-Trueba, et al., “Robust universal neural vocoding”, arXiv:1811.06292, (https://arxiv.org/abs/1811.06292), 2018.

[OOrd 2016] A. van Oord, et al, « WaveNet : A Generative Model for Raw Audio », arXiv:1609.03499v2 (https://arxiv.org/abs/1609.03499v2), 2016.

[OOrd 2017] A. van Oord, et al., « Parallel WaveNet : Fast High-Fidelity Speech Synthesis », arXiv :1711.10433 (https://arxiv.org/abs/1711.10433v1), 2017.

[Shen 2017] J. Shen, et al., “Natural TTS Synthesis by Conditioning WaveNet on Mel Spectrogram Predictions”, arXiv:1712.05884 (https://arxiv.org/abs/1712.05884), 2017.

[TF 2017] https://www.tensorflow.org


36. Détection de voix de synthèse


Site : Trac-Détection de voix de synthèse
Lieu : Lille
Encadrant : Nathan Souviraà-Labastie
Dates :Flexible
Rémunération :Gratification
Mots-clés : Parcours ATIAM : Traitement du signal

Description

La récente progression du réalisme des moteurs de synthèse de voix (Cortana, Siri, Alexa ...) ouvre la voie à de nouvelles interaction entre l’homme et la machine. Certaines grandes entreprise ont par exemple déjà annoncé lancer à grandes échelles la prise de rdv téléphonique pour des assistants virtuels ( 8 ). De même,la synthèse des émotions dans les voix de synthèse ( 9 ) ou encore lemorphingde voix ( 10 ) vont devenir des technologies matures dans les années à venir.

Sujet Une première étape de ce sujet de stage est de faire une large revue bibliographique des méthodes envisageables pour la création d’un détecteur de voix de synthèse. Une introduction du domaine dit de l’"anti-spoofing" peut être trouvée dans ( 6 ). Ce domaine de recherche s’attache à développer des contre-mesures pour sécuriser la vérification automatique du locuteur. C’est un domaine proche de celui de la reconnaissance du locuteur. Des pistes de réflexion pour les futures implémentations pourront aussi être trouvées dans la littérature des traitements de signal tenant compte ou informé par la phase ( 2, 7 ). Des campagnes d’évaluation ( 11 ) relatives à ces aspects sont organisés tout les deux ans sur différentes tâches. ASVSpoof2015 ( 4 ) s’est d’abord concentré sur l’évaluation des capacités des systèmes à s’adapter à de nouvelles menaces d’usurpation. Un résumé des méthodes soumises à ce challenge et leur résultats est disponible ( 5 ). ASVSpoof2017 ( 1 ) s’est ensuite concentré sur la menace potentiellement la plus répandue qui consiste à utiliser une enceinte lors de l’usurpation. Il est à noter qu’en février 2019, le challenge adoptera la métrique t-DCF ( 3 ) et les tâches ne sont pas encore dévoilées. Par ailleurs, chaque challenge fournit des bases de données d’apprentissage et d’évaluation et pourront servir comme données de travail. Une fois identifié le type de méthode la plus adaptée à notre cas d’usage (critère de performance de détection, de temps réel et de simplicité de l’intégration logiciel), une deuxième tâche sera d’implémenter une ou plusieurs solutions de l’état de l’art. Enfin, à partir de cette base, des améliorations seront à apporter sur les critères cités ci-dessus ou sur l’extension au cas multi-canal de la méthode choisie. Le sujet pourra être étendu sur une thèse de doctorat dont la mission consistera en la continuité de ce projet.

En préparation d’un diplôme d’ingénieur ou d’un master (bac+5), voire d’un doctorat (bac+8) (stage de césure), vous disposez de préférence de connaissances dans le développement et l’implémentation d’algorithmes avancés de traitement numérique du signal audio. En outre, des notions avancées dans les domaines variés suivants seraient fortement appréciés :

Audio, acoustique et psychoacoustique Effets audio de manière générale : compression, égalisation, etc. Machine learning et réseaux de neurones artificiels. Statistiques, mathématiques probabilistes, optimisation. Programmation et développement informatique : Matlab, Python.

Et des expériences dans les domaines suivants seraient des plus :

Effets de spatialisation sonore : synthèse binaurale, Ambisonics, réverbération artificielle. Reconnaissance vocale, commande vocale. Effets de traitement de la voix : réduction de bruit, annulation d’écho, traitement d’antenne. Réalité virtuelle, augmentée et mixte. Programmation et développement informatique : Max/MSP, C/C++/C#. Moteurs de jeux vidéo : Unity, Unreal Engine, Wwise, FMod, etc. Logiciels d’édition audio : Audacity, Adobe Audition, etc. Publications scientifiques et dépôts de brevet. Maitriser parfaitement l’anglais. Faire preuve de curiosité intellectuelle.

Bibliographie

( 1 ) H.Delgado et al. « ASVspoof 2017 Version 2.0 : meta-data analysis and baseline enhancements ». In :Odyssey 2018 The Speaker and Language Recognition Workshop. Odyssey 2018 The Speaker andLanguage Recognition Workshop. ISCA, 26 juin 2018, p. 296-303.

( 2 ) H.Erdogan et al. « Phase-sensitive and recognition-boosted speech separation using deep recurrent neural networks ». In :2015 IEEE International Conference on Acoustics, Speech and Signal Processing(ICASSP). ICASSP 2015 - 2015 IEEE International Conference on Acoustics, Speech and SignalProcessing (ICASSP). South Brisbane, Queensland, Australia : IEEE, avr. 2015, p. 708-712.

( 3 ) T.Kinnunen et al. « t-DCF : a Detection Cost Function for the Tandem Assessment of Spoofing Countermeasures and Automatic Speaker Verification ». In :Odyssey 2018 The Speaker and Language Recognition Workshop. Odyssey 2018 The Speaker and Language Recognition Workshop. ISCA, 26 juin 2018, p. 312-319.

( 4 ) Z.Wu et al. « ASVspoof 2015 : Automatic Speaker Verication Spoong and Countermeasures Challenge Evaluation Plan ». In : (), p. 5.

( 5 ) Z.Wu et al. « ASVspoof : The Automatic Speaker Verification Spoofing and Countermeasures Challenge ». In :IEEE Journal of Selected Topics in Signal Processing 11.4 (juin 2017), p. 588-604.

( 6 ) Z.Wu et al. « Spoofing and countermeasures for speaker verification : A survey ». In :Speech Communication66 (fév. 2015), p. 130-153.

( 7 ) N.Zheng et X.-L.Zhang. « Phase-Aware Speech Enhancement Based on Deep Neural Networks ».In :IEEE/ACM Transactions on Audio, Speech, and Language Processing27.1 (jan. 2019), p. 63-76.

( 8 ) https://www.koreus.com/video/google...

( 9 ) http://recherche.ircam.fr/anasyn/em...

( 10 ) https://modulate.ai/4.http://www.as...

( 11 ) http://www.asvspoof.org/


37. Middleware pour la gestion distribuée du temps musical


Site : Représentations musicales
Lieu : UMR 9912 Science et Technologie de la Musique et du Son — IRCAM
Encadrant : Jean Bresson et Jean-Louis Giavitto
Dates :01/03/2019 au 31/07/2019 (à discuter)
Mots-clés : Parcours ATIAM : Informatique musicale

Description

Se synchroniser, se coordonner, s’accorder, faire se coïncider, se répondre, être à l’unisson… la diversité du vocabulaire dédié à la mise en correspondance dans le temps de nos activités montre l’importance que revêt leur organisation temporelle. Les arts performatifs, et la musique particulièrement, sont des domaines qui concentrent ces problématiques : comment, lors de l’interprétation d’une œuvre musicale ou scénique, réaliser les relations temporelles complexes exprimées dans une partition, un scénario ou un script ? Et comment y intégrer les dispositifs technologiques qui produisent des informations de synchronisation pour des médias temporels de toutes sortes (son, musique, images, animations, lumière, automation, etc.), qui doivent interagir avec leur environnement, les interprètes (musiciens, danseurs, acteurs) et aussi le public ?

Le stage proposé vise à apporter des éléments de réponses en développant une API logicielle permettant à des applications existantes de se synchroniser via des communications de type OSC. Deux applications sont plus particulièrement visées : OpenMusic et Antescofo, dans le but de simplifier la construction d’applications musicales interactives en confiant les parties génératives à OpenMusic et en coordonnant les activités de générations et de rendus avec Antescofo. Plusieurs objectifs scientifiques et techniques sont visés et les priorités dépendront de l’intérêt de l’étudiant et des résultats obtenus.

Une couche de communication améliorée. OSC c’est imposé comme medium de communication du contrôle en informatique musicale. Pourtant, d’autre middleware, comme ZQM, offrent des primitives de communications plus modernes. L’objectif ici est d’étendre les capacités d’OSC, afin de maintenir un temps global partagé, d’échanger des informations de nature temporelle (occurrence d’événement, tempi) entre applications, permettre un routage actif et l’exécution distante d’expression à la manière de odot.

Evènements temporels distribués. L’objectif est de pouvoir détecter des événements temporels distribués à la fois événementiel (par exemple : entre l’événement A et B qui se produisent sur la machine 1, il n’y a eu que des événements de type C sur la machine 2) et temporisé (le processus P sur la machine 1 doit s’exécuter avec le tempo du processus Q sur la machine 2).

Moniteurs d’activité. Le pilotage d’applications musicales interactives nécessite des interfaces graphiques souvent complexes et coûteuses à réaliser. L’émergence de nouvelles solutions techniques « dans un navigateur » permet d’envisager des approches portables, facilement déployables et permettant de répondre à une grande variété de besoins. L’objectif ici est de développer divers composants de visualisation dans une fenêtre de navigateur web, par exemple pour l’édition, l’affichage et l‘animation dynamique de partition, de « piano-roll » et de « time-line ».

Bibliographie

Voir la page http://repmus.ircam.fr/giavitto/sta... pour accéder aux URL des articles.

• Cont. Synchronisme musical et musiques mixtes : du temps écrit au temps produit in Circuit : musiques contemporaines, , 22 (1), Presses de l’Univ. de Montreal, 2012.

• R. Goebel, R. Sanfelice, A. Teel, Hybrid dynamical systems. IEEE Control Systems Magazine 29 (2):28–93. 2009

• R. Dannenberg, Time-Flow Concepts and Architectures For Music and Media Synchronization, pp. 104-109. ICMC 2017.

• J. L. Giavitto, J. Echeveste. Real-time matching of antescofo temporal patterns. In 16th Int. Symp. on Principles and Practice of Declarative Programming, pp. 93-104. ACM 2014.

• J. Goubault-Larrecq, J.-P. Lachance. On the complexity of monitoring Orchids signatures, and recurrence equations. Formal Methods in Syst. Design, 53(1), 6–32. 2018.

• Wang, G. ChucK : A strongly-timed and on-the-fly environ/mentality. Computer Music Journal, 39:4, pp. 10–29, 2015.

• M. McCurry. Rtosc - Realtime Safe Open Sound Control Messaging. Linux Audio Conf. 2018.

• R. Dannenberg, Z. Chi, O2 : Rethinking Open Sound Control. In 42nd Int. Comp. Music Conf., pp. 493-496, 2016.

• J. Bresson, J. MacCallum, A. Freed. o.OM : structured-functional communication between computer music systems using OSC and Odot. In 4th Int. Work. on Functional Art, Music, Modelling, and Design, pp. 41-47. ACM, 2016.

• J MacCallum, R Gottfried, I Rostovtsev, J Bresson, Dynamic Message-Oriented Middleware with Open Sound Control and Odot. Int. Comp. Music Conference, ICMC 2014.


38. Amélioration de rendu binaural en l’absence de tracking


Site : Groupe Lutheries - Acoustique - Musique, Sorbonne Université, CNRS, UMR 7190, Institut Jean Le Rond ∂’Alembert
Lieu : Groupe Lutheries - Acoustique - Musique Sorbonne Université, CNRS, UMR 7190, Institut Jean Le Rond ∂'Alembert Plus quelques visite chez A-Volute, Lille.
Encadrant : B. F.G. Katz et D. Poirier-Quinot (LAM) R. Greff (A-Volute)
Dates :du 2-3/19 au 7/19
Rémunération : en fonction de la grille standard SU
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Contexte Le rendu binaural est une technique permettant de donner l’impression, lors d’une écoute au casque, qu’un son provient d’une direction en particulier. Le terme "encodage binaural" est souvent utilisé car la technique consiste à convoler un signal audio avec une paire de filtres (un pour chaque oreille) reproduisant les effets qu’aurait subit le signal s’il s’était vraiment propagé jusqu’aux tympans de l’auditeur depuis une position donnée. En pratique, cette "reproduction" fait l’objet de simplifications, celles-ci déforment l’espace sonore perçu par l’auditeur. En l’absence de tracking, ces déformations sont davantage prononcées (absence d’externalisation, confusions avant/arrière, stabilité de la scène sonore, etc.).

Sujet Après s’être fait une idée concrète du problème posé (bibliographie, tests d’écoute, etc.), le stagiaire sera chargé d’explorer et/ou de proposer différentes méthodes et paradigmes permettant d’améliorer le rendu binaural au casque en l’absence de tracking. Cette exploration se fera au travers de prototypes logiciels permettant d’évaluer rapidement l’efficacité des méthodes envisagées. En fonction des résultats de cette exploration, le stagiaire sera chargé de mettre au point et de mener une étude perceptive complète pour caractériser l’impact perceptif des méthodes retenues.

Apport Le stagiaire sera confronté à la mise au point et à la réalisation d’une étude perceptive complète (protocole, analyse statistique, rédaction scientifique, etc.). L’étude sera menée au sein d’une équipe dont les recherches portent sur l’acoustique des salles et la réalité virtuelle : le stagiaire aura l’occasion de se familiariser avec les outils utilisés dans ces deux domaines.

Mots clés Rendu binaural, Externalisation, Cone de confusion, Psycho-acoustique, Étude perceptive.

Profil Stagiaire capable d’apprendre, même de ses propres erreurs, qui prend du plaisir à résoudre des problèmes conceptuels comme techniques. Langages abordés : Matlab, Max/MSP.

Bibliographie

David Poirier-Quinot and Brian FG Katz. The Anaglyph binaural audio engine. In Aud Eng Soc Conv 144, 2018.

Etienne Hendrickx, Peter Stitt, Jean-Christophe Messonnier, Jean-Marc Lyzwa, Brian FG Katz, and Catherine De Boish-eraud. In uence of head tracking on the externalization of speech stimuli for non-individualized binaural synthesis. The Journal of the Acoustical Society of America, 141(3) :20112023, 2017.


39. Définition et étude des indices acoustiques pertinents à l’appréhension de l’espace par les non-voyants


Site : Groupe Lutheries - Acoustique - Musique, Sorbonne Université, CNRS, UMR 7190, Institut Jean Le Rond ∂’Alembert
Lieu : Groupe Lutheries - Acoustique - Musique Sorbonne Université, CNRS, UMR 7190, Institut Jean Le Rond ∂'Alembert
Encadrant : B. F.G. Katz et D. Poirier-Quinot (LAM)
Dates :du 2-3/19 au 7/19
Rémunération : en fonction de la grille standard SU
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Contexte À la jonction entre l’acoustique architecturale et la psycho-acoustique, ce sujet est une ouverture au projet ANR Rasputin (2019-2021). Ce projet se concentre sur la simulation en temps-réel d’acoustique des salles comme outil d’aide à l’exploration pour les non-voyants. À notre échelle, le projet est composé de deux grands axes de recherche : la mise au point d’un moteur de rendu de simulation acoustique et l’étude des indices acoustiques disponibles lors d’une exploration permettant de se faire une idée de son environnement (centre commercial, musé, bureaux, etc.). C’est autour de ce second axe de recherche que se concentre le stage.

Sujet Le stagiaire sera dans un premier temps chargé de mener une recherche bibliographique sur la perception de l’espace sonore chez les voyants comme chez les non-voyants. Le stagiaire définira ensuite un ensemble de scénarios dans lesquels "l’acoustique" d’un lieu (porte ouverte/fermée, hauteur sous plafond, source de bruit localisée, matériaux, etc.) permet de se repérer lors d’une exploration. Une campagne de mesures sera menée à fin de rassembler des données sur chacun des scénarios définis. Ces données permettront au stagiaire de conduire une série d’analyses objectives et d’études subjectives visant à caractériser les indices acoustiques qu’une personne non-voyante peut exploiter pour se repérer lors d’une exploration.

Apport Le stagiaire sera amené à mettre au point et à réaliser une étude perceptive complète (hypothèse, protocole, analyse statistique, rédaction scientifique, etc.). L’étude sera menée au sein d’une équipe dont les recherches portent sur l’acoustique des salles et la réalité virtuelle : le stagiaire aura l’occasion de se familiariser avec les outils utilisés dans ces deux domaines. La caractérisation objective des indices acoustiques identifiés sera l’occasion pour le stagiaire de se familiariser avec l’algorithmie d’analyse et de traitement du signal.

Mots clés Acoustique, Psycho-acoustique, Perception d’espace, Traitement du signal, Étude perceptive.

Profil Stagiaire capable d’apprendre, même de ses propres erreurs, qui prend du plaisir à résoudre des problèmes conceptuels comme techniques. Langages abordés : Matlab, Max/MSP.

Bibliographie

Brian FG Katz and Lorenzo Picinali. Spatial audio applied to research with the blind. In Advances in sound localization. InTech, 2011.

Lorenzo Picinali, Amandine Afonso, Michel Denis, and Brian FG Katz. Exploration of architectural spaces by blind people using auditory virtual reality for the construction of spatial knowledge. International Journal of Human-Computer Studies, 72(4) :393-407, 2014.


40. Système de répétition virtuel et écoute de performance musical en temps différé, effet de l’acoustique du lieu sur le jeu de flute traversière


Site : Groupe Lutheries - Acoustique - Musique, Sorbonne Université, CNRS, UMR 7190, Institut Jean Le Rond ∂’Alembert
Lieu : Groupe Lutheries - Acoustique - Musique Sorbonne Université, CNRS, UMR 7190, Institut Jean Le Rond ∂'Alembert
Encadrant : Brian F.G. Katz (LAM) & Benoit Fabre (LAM)
Dates :du 2-3/19 au 7/19
Rémunération : en fonction de la grille standard SU
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Résumé : Le projet sera de travailler sur une architecture de simulation acoustique en temps-réel/temps-différé pour un musicien pour qu’il/elle puisse avoir une écoute de sa performance sur la scène mais aussi immédiatement une réécoute dans la salle, pour mieux comprendre comment sa performance se porte dans différents endroits, et différentes salles. Le projet combine à la fois l’acoustique de la salle, mais aussi les propriétés de rayonnement de l’instrument. Pour ça, on exploit le(s) système(s) de tracking disponible dans notre salle de réalité virtuelle, équipé aussi d’une système Ambisonic de 32 haut-parleurs. Pour ce projet, nous avons identifié la flute traversière comme instrument de cas de teste. Pour prendre en compte les aspects de rayonnement, il y aura besoin d’implémenter des modèles et/ou les résultats de mesures effectuer sur place. La plupart du projet sera effectué dans l’architecture de logiciel MAX avec les préparations des salles virtuelles via CATT-Acoustics. MatLab sert comme logiciel fondamental pour tous les autres aspects. Résultats attendus : Après une prise en main des différentes systèmes et architectures, le stagiaire sera dans un premier temps chargé d’installé une prototype simple pour régler certaines questions de base, comme le choix d’un rendu sur casque ou réseau haut-parleur. Il faut investiguer l’impact du retard entrée/sortie, qui varie entre architectures. La prise en mains d’une captation qui minimise l’effet larsen pour l’instrument en question et les corrections de timbre pour une rendu champs lointain représente la prochaine étape. Ensuite, le system sera élaboré en complexité avec les propriétés de rayonnement dynamique. Des essaies préliminaires avec des vraies musiciens complètera la fin du projet. Type de travail (théorique, numérique, expérimental) : Le stagiaire se verra confronté à un sujet demandant, tant d’un point de vue des prises en mains des concepts et l’exécution des mesures et simulations que la réflexion à mener. Le profil des encadrants amènera le stagiaire à développer une méthodologie stricte, rigoureuse et efficace dans ces deux domaines. Compétences requises : Stagiaire capable d’apprendre, même de ses propres erreurs, qui prend du plaisir à résoudre des problèmes s’étalant parfois sur plusieurs semaines. Langages/logicielle abordés : Matlab, CATT-Acoustics, MAX Rémunération : montant forfaitaire CNRS ( 550€ par mois, soumis à réévaluation) Possibilité de poursuite en thèse : En fonction des capacités du futur doctorant et des possibilités de financement.

Bibliographie

B. N. Postma, H. Demontis, and B. F. Katz, “Subjective evaluation of dynamic voice directivity for auralizations,” Acta Acust united Ac, vol. 103, pp. 181–184, 2017, doi:10.3813/AAA.919045. B. N. Postma and B. F. Katz, “Dynamic voice directivity in room acoustic auralizations,” in German Annual Conf. on Acoustics (DAGA), pp. 352–355, Mar 2016, (url). B. N. Postma and B. F. Katz, “Perceptive and objective evaluation of calibrated room acoustic simulation auralizations,” J. Acoust. Soc. Am., vol. 140, pp. 4326–4337, Dec. 2016, doi:10.1121/1.4971422. B. F. Katz, B. Postma, D. Thery, D. Poirier-Quinot, and P. Luizard, “Objective and perceptive evaluations of high-resolution room acoustic simulations and auralizations,” in Euronoise, (Crete), pp. 2107–2114, May 2018, (url). D. Poirier-Quinot, B. N. Postma, and B. F. G. Katz, “Augmented auralization : Complimenting auralizations with immersive virtual reality technologies,” in Intl. Sym on Music and Room Acoustics (ISMRA), (La Plata), pp. 14:1–10, Sept. 2016, (url).


41. Sonification de la posture des musiciens pour une performance saine et efficace. Application au cas de la guitare électrique


Lieu : Institut de Biomécanique Humaine Georges Charpak : 151, boulevard de l’Hôpital – 75013 – PARIS Laboratoire Perception, Représentations, Image, Son et Musique : 31, Chemin Joseph Aiguier – 13402 – MARSEILLE
Encadrant : Delphine Chadefaux et Sølvi Ystad
Dates :du 01/02/2019 au 31/07/2019
Rémunération :De l’ordre de 500€ par mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

CONTEXTE : Nos activités du quotidien imposent des interactions complexes avec l’environnement impliquant une combinaison de phénomènes posturaux et gestuels pouvant, à terme, avoir des conséquences néfastes pour l’homme, mais aussi pour la qualité de la tâche réalisée. Il est intéressant de noter que dans le cadre du sport, un important travail de sensibilisation existe, amenant les sportifs à être encadrés de préparateurs physiques et de médecins vis-à-vis des risques encourus. Les sportifs ont ainsi quotidiennement recours à de nombreux exercices de renforcement musculaire, d’étirement, d’entrainement et d’optimisation de leurs gestes. Cependant, en dehors de ce domaine, cet encadrement est quasi-inexistant. La prévention des risques pour la santé des utilisateurs se limite à des normes et des équipements développés pour la plupart sans prise en compte des interactions entre l’homme et son environnement. Dans cette étude, nous souhaitons sensibiliser d’autres populations ayant une activité corporelle, gestuelle et multi-sensorielle complexe aux risques liés à leurs activités professionnelles. Nous nous focaliserons ainsi sur la pratique instrumentale en musique qui demande au musicien une dextérité fine, des mouvements répétitifs, rapides et précis, ainsi que des efforts importants pour mettre l’instrument en vibration, tout en adoptant des postures souvent peu naturelles pour le corps humain. Cet aspect extrême se retrouve en particulier chez le guitariste électrique, sujet à des cervicalgies, dorsalgies, lombalgies, et troubles musculo-squelettiques des membres supérieurs pouvant affecter sa capacité à jouer. Nous nous proposons ainsi de développer une plateforme d’optimisation des interactions entre le guitariste et son instrument afin de favoriser une pratique saine et performante.

OBJECTIFS : (1) Mettre en place un système de capture du mouvement des guitaristes et une estimation des descripteurs posturaux critiques pour son intégrité physique. (2) Développer une stratégie de sonification de la performance musicale rendant compte des corrections posturales à apporter par le musicien. (3) Evaluation perceptive de la démarche développée auprès d’un panel de guitaristes.


42. Élaboration de modèles pour l’aide à la composition au sein du logiciel Guitar Pro


Site : Algomus
Lieu : Lille (laboratoire CRIStAL / Arobas Music)
Encadrant : Louis Bigo (CRIStAL), Mathieu Giraud (CRIStAL), Nicolas Martin (Arobas Music)
Dates :flexible - début en février/mars pour 5/6 mois
Rémunération :Environ 500€ par mois
Mots-clés : Parcours ATIAM : Informatique musicale

Description

Contexte :

Ce stage s’inscrit dans le cadre d’un co-encadrement entre l’équipe Algomus (Université de Lille, CRIStAL) et la société Arobas Music. L’équipe d’informatique musicale Algomus, collaboration entre les laboratoires CRIStAL (UMR CNRS 9189, Université de Lille) et MIS (UPJV, Amiens) s’intéresse à l’analyse informatique de partitions musicales. La société lilloise Arobas Music développe le logiciel Guitar Pro dédié à la saisie et à la consultation de tablatures de guitare, et plus généralement de partitions musicales. Plus de 10 millions de musiciens l’utilisent régulièrement pour l’apprentissage, la transcription ou la composition. La société s’intéresse à l’ajout de nouvelles fonctionnalités pour assister de manière intelligente le processus d’écriture et de composition de l’utilisateur. Arobas Music produit également la base de données mySongBook réunissant plus de 2000 tablatures de haute qualité.

Objectifs :

L’objectif de ce stage consiste à explorer des pistes pour développer un système stimulant la créativité musicale de l’utilisateur en assistant de manière intelligente son processus de composition. Un premier objectif dans ce sens pourrait consister en un système proposant la continuation ou la terminaison d’une phrase musicale entamée. La construction d’un modèle reflétant un ensemble de tendances mélodiques, harmoniques et rythmiques associées à style musical peut s’effectuer par apprentissage automatique sur des phrases entrées par l’utilisateur ou sur des bases de données préexistantes, notamment le répertoire mySongBook maintenu par Arobas Music. Le stage commencera par dresser un état de l’art sur la génération automatique de tablatures, et plus généralement de musique. Il s’agira ensuite d’identifier une représentation pertinente des données afin de tester le potentiel de différentes méthodes issues de l’apprentissage automatique, en particulier les réseaux de neurones, sur le corpus mySongBook.

Bibliographie

N. dos Santos Cunha, A. Subramanian & D. Herremans. Generating guitar solos by integer programming.

M. McVicar, F. Satoru and G. Masataka. "AutoLeadGuitar : Automatic generation of guitar solo phrases in the tablature space." Signal Processing (ICSP), 2014 12th International Conference on. IEEE, 2014.

J. P. Briot, G. Hadjeres, and F. Pachet. Deep learning techniques for music generation — A survey. https://arxiv.org/abs/1709.01620 (2017)

D. Herremans, C. Ching-Hua, and E. Chew. A functional taxonomy of music generation systems. ACM Computing Surveys 50/5, 69 (2017)


43. Modélisation du mécanisme du piano


Site : Laboratoire de recherche sur le geste musicien
Lieu : Faculté de musique, Université de Montréal Montréal, Québec, Canada
Encadrant : Caroline Traube
Dates :Entre février/mars et juin (4 mois)
Rémunération :1500 dollars canadiens
Mots-clés : Parcours ATIAM : Acoustique

Description

Les musiciens professionnels sont confrontés à une pratique instrumentale quotidienne répétitive et de longue durée qui les rend vulnérables aux troubles musculo-squelettiques (TMS), particulièrement aux muscles mobilisant les doigts et le poignet. Notre projet s’intéresse à ce problème par le biais d’un processus de co-création entre des pianistes experts et des chercheurs en biomécanique et en acoustique, d’une part, et la simulation multiphysique du système complexe formé du corps du pianiste, de la mécanique du piano ainsi que du son produit, d’autre part. L’objectif du projet est de développer des gestes holistiques optimaux qui minimisent le risque de TMS tout en assurant le contrôle fin de la production sonore. Basée sur la théorie du contrôle optimal, la modélisation de la performance pianistique du geste au son sera réalisée à l’aide d’un modèle biomécanique multicorps combiné à un modèle de production du son par le mécanisme du piano (interaction touche-marteau-cordes). Par la suite, il faudra définir l’espace connu des possibles, c’est-à-dire un ensemble représentatif de stratégies gestuelles et sonores adoptées par différents pianistes. Les données biomécaniques et acoustiques collectées serviront de solutions initiales mais également de bornes pour explorer les gestes optimaux produits par le modèle. Finalement, les simulations numériques seront utilisées pour alimenter le processus de co-création avec les différents experts selon une approche itérative.

Dans le cadre de ce projet, le/la stagiaire en acoustique travaillera sur la modélisation du mécanisme du piano, de la touche à la corde. Les données relatives au jeu instrumental captées par un piano enregistreur (Bösendorfer) permettront de tester le comportement du mécanisme sous l’action de différents types de touchés.

Bibliographie

1. Verdugo, F. in New Thoughts on Piano Performance : Research at the Interface between Science and the Art of Piano Performance (ed Cristine Mackie) Ch. 1, 1-19 (london international piano symposium publiCation, 2017).

2 Verdugo, F. Documentation, validation scientifique et formalisation de l’approche de la technique pianistique développée par Marc Durand D. Mus thesis, Université de Montréal, (2014).

3 Furuya, S. & Altenmuller, E. Flexibility of movement organization in piano performance. Front Hum Neurosci 7, 173, doi:10.3389/fnhum.2013.00173 (2013).

4 Gibet, S. Sensorimotor control of sound-producing gestures. Musical Gestures : Sound, Movement, and Meaning, 212-237 (2010).

5 Goebl, W. Movement and Touch in Piano Performance. 1-18, doi:10.1007/978-3-319-30808-1_109-1 (2017).

6 Jensenius, A. R. in Springer Handbook of Systematic Musicology (ed R. Bader) Ch. 38, 805-818 (Springer-Verlag, 2018).

7 Miranda, E. R. & Wanderley, M. M. New digital musical instruments : control and interaction beyond the keyboard. Vol. 21 (AR Editions, Inc., 2006).

8 Askenfelt, A. & Jansson, E. V. From touch to string vibrations. I : Timing in the grand piano action. The Journal of the Acoustical Society of America 88, 52-63 (1990).

9 Dahl, S. et al. Gestures in performance. Musical gestures : Sound, movement, and meaning 36, 36-68 (2010).

10 Delalande, F. La gestique de Gould : éléments pour une sémiologie du geste musical. Glenn Gould Pluriel, 85-111 (1988).

11 Bernays, M. & Traube, C. Investigating pianists’ individuality in the performance of five timbral nuances through patterns of articulation, touch, dynamics, and pedaling. Frontiers in psychology 5 (2014).


44. Orchestral Distribution Effects in Sound, Space and Acoustics


Site : Faculté de musique, Université de Montréal
Lieu : Faculté de musique, Université de Montréal
Encadrant : Caroline Traube
Dates :De février/mars à mai/juin (4 mois)
Rémunération :1500 dollars canadiens
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

ODESSA – Orchestral Distribution Effects in Sound, Space and Acoustics

ODESSA is a collaborative project between the Université de Montréal, McGill University and Detmold Music, realized in the context of the ACTOR partnership (Analysis, Creation and Teaching of Orchestration). With the aim to study orchestral blending effects, a joint music production and evaluation of an orchestral recording has been realized at Salle Claude-Champagne on September 29-30, 2018, with the Orchestre de l’Université de Montréal (OUM) under the direction of conductor Jean-Francois Rivest and Tonmeister Prof. Martha de Francisco, with a team of students from Detmold and Montreal realizing a multimicrophone recording, as well as acoustical research activities by Prof. Malte Kob. Prof. Rivest will lead the student orchestra in a rehearsal session of Tchaikovsky Symphony No. 6, the “Pathétique”. Excerpts of the work have been recorded in the full orchestral setting or in variable combinations of single instruments, partial or complete orchestral sections performing together, allowing to illustrate timbre blending between the groups. The main objective of this project is to trace instrumental blending in an orchestra by listening to and analysis of the sound of instruments as recorded from different perspectives. The comparison of close microphone pick-up and ambient recording should illustrate the importance of reflected sound for our perception of instrumental blend.

In the context of the project, the internship in musical acoustics mainly concerns the extraction of acoustic descriptors which characterize the presence of blend.


45. Modélisation, identification et correction d’un haut-parleur électrodynamique incluant le comportement thermo-élastique


Site : Equipe S3AM
Lieu : Equipe S3AM, Laboratoire STMS, IRCAM-CNRS-SU, 1 place Igor Stravinsky, 75004 Paris
Encadrant : Tristan Lebrun et Thomas Hélie
Dates :6 mois de février/mars à juillet/août
Rémunération :oui
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Les haut-parleurs électro-dynamiques sont des transducteurs non idéaux. Ces systèmes mettent en jeu des phénomènes à « mémoire longue » et/ou non linéaires, dont l’impact est audible [1]. 

Leurs effets peuvent être désirés, comme c’est le cas pour les amplificateurs de guitare et leur « signature sonore ». Ils peuvent aussi être considérés comme des artefacts à éliminer, comme c’est le cas pour la sonorisation.

Un banc de mesure a été développé au sein de l’équipe S3AM dans le but d’identifier et corriger ces effets. Celui-ci inclut (i) un haut-parleur conditionné dans une enceinte, (ii) des capteurs de tension, courant et position de la membrane et (iii) un système dSPace pour l’acquisition/génération de signaux. 

De plus, une méthode d’estimation de paramètres a été développée pour un modèle de haut-parleur incluant deux non-linéarités prédominantes (suspension et couplage électro-mécanique). Celle-ci repose sur la séparation des signaux entrée-sortie par ordres homogènes de non-linéarité [2]. 

Enfin, un algorithme de correction basée sur une technique de pré-compensation [3] a été implanté sur le banc, et fournit une correction qui réduit significativement les contributions non linéaires et les distortions associées [4].

Objectifs 

Ce stage s’intéresse au comportement visco-élastique ou « creep effect [5, 6] » de la membrane du haut-parleur, observé à basses fréquences.  L’objectif est d’établir un modèle thermo-élastique permettant de reproduire de phénomène, puis de l’incorporer aux méthodes d’estimation et de correction déjà en place.  Plus précisément, ce travail comprend :

1. La réalisation d’une cartographie thermique de haut-parleur en fonctionnement, permettant de cibler les zones d’intérêt pour la modélisation. 2. La réalisation d’un modèle thermo-élastique de la membrane du haut-parleur issu des mesures mentionnées ci-dessus. Le modèle sera établi dans le formalisme des Systèmes Hamiltoniens à Ports [7, 8]. Pour alléger ce travail, on pourra utiliser la librarie Python PyPHS [9] qui permet de générer automatiquement les équations du modèle. 3. L’adaptation de la méthode d’estimation et de correction au nouveau modèle

Compétences requises : Goût prononcé pour l’expérimental, connaissances en électroacoustique et automatique, Python, Matlab, travail en équipe. Des connaissances en thermodynamique serait un plus.

Bibliographie

[1] W. Klippel. Tutorial : Loudspeaker nonlinearities—Causes, parameters, symptoms. Journal of the Audio Engineering Society, 2006.

[2] D. Bouvier, T.Hélie. Nonlinear homogeneous order separation for Volterra Series Identification. 20th International Conference on Digital Audio Effects. Edinburgh, United Kingdom, Sept 2017.

[3] A. Falaize, N. Papazoglou, T. Hélie and N. Lopes. Compensation of loudspeaker’s nonlinearities based on flatness and port-Hamiltonian approach. Association Française de Mécanique. 2015.

[4] T. Lebrun. Correction temps-réel d’un haut-parleur électrodynamique : Modélisation, Mesures et Asservissement. Rapport de stage de fin d’études. 2016.

[5] Knudsen, Morten H., and J. Grue Jensen. "Low-frequency loudspeaker models that include suspension creep." Journal of the Audio Engineering Society 41.1/2 (1993) : 3-18.

[6] Novak, Antonin. "Modeling viscoelastic properties of loudspeaker suspensions using fractional derivatives." Journal of the Audio Engineering Society 64.1/2 (2016) : 35-44.

[7] A.J. Van de Schaft. Port-Hamiltonian Systems : an introductory survey. Proceedings of the International Congress of Mathematicians, 2006.

[8] S. Stramigioli, V. Duindam and A. Macchelli. Modelling and Control of Complex Physical Systems : The Port Hamiltonian Approach. Springer, 2009.

[9] A. Falaize. Modélisation, simulation, génération de code et correction de systèmes multi-physiques audios : approche par réseau de composants et formulation Hamiltonienne à Ports. Thèse de Doctorat, Université Pierre et Marie Curie, 2016.


46. Blockchain


Lieu : Rennes
Encadrant : Thierry Roger
Dates :2019
Rémunération :1000€ brut +TR
Mots-clés : Master SAR, autre qu’ATIAM

Description

L’ALTEN Innovation Center propose toute l’année des projets de recherche « centrés sur l’étudiant ». Dans la continuité de ses programmes R&D sur la cyber sécurité, l’ALTEN Innovation Center a lancé de nouveaux travaux depuis un an dans le domaine de la Blockchain (exploiter ses aptitudes de traitements décentralisés et transactionnels dans une Blockchain comme Ethereum à travers ses Smart Contracts). Les objectifs de ces projets sont :  La conversion d’une identité réelle vers une identité numérique exploitant la technologie Blockchain (normalisation des informations, association de photos, identités multiples à facette).  L’usage de la Blockchain dans l’exploitation des IoTs (identification des Iots, consolidation des données…).  La modélisation et la mise oeuvre de tiers de confiance pour un système de parrainage.  La gestion d’un espace privé communautaire dans une Blockchain publique (élection d’un représentant par vote ou aléatoire, micro-canaux de communication, partage d’annuaire, cagnotte).  L’exploitation de la Blockchain pour évaluer des solutions dématérialisés (billetterie, carnet…)  La modélisation et limite d’un système de troc basé sur ses propres Tokens dans la Blockchain.


47. Understanding user decisions when interacting with an AI


Lieu : Equipe Inria Ex)Situ, Laboratoire de Recherche en Informatique (LRI), Université Paris-Saclay
Encadrant : Baptiste Caramiaux (CNRS, LRI), Gilles Bailly (CNRS, ISIR), and Quentin Roy (Univ. Waterloo)
Dates :du 15/02/2019 au 15/07/2019
Rémunération :env 500€

Description

In recent years, machine learning algorithms had an increasing impact on our life. Algorithms are selecting the information we see after a search on Internet, they are recommending music albums and movies, or they are choosing the most appropriate navigation plans in transportation. In other words, these algorithms perform predictions and make decisions or recommendations on our behalf based on a certain number of criteria. Take the example of one driving her car from her home to her office. To avoid traffic, she is using an application able to predict what is the shortest journey from point A to point B. The criteria used to predict the best route, the cost function used to assess what is a better route, or the algorithm itself are not know to the driver and the prediction can sometimes happen to be wrong. Under such uncertainty, when the application recommends a new route, the driver faces the fundamental problem of : either trusting the technology and engaging herself on the new route (which may require more attention and cognitive load), or remaining on the usual route (but potentially arrive later). This simple example shows that interacting with an AI poses several fundamental challenges that have not yet been addressed in the field of Human-Machine Interaction, especially the role of algorithm interpretability [Doshi-Velez et al., 2017] in human decision making in the context of human-AI interaction.

The goal of this internship is to provide insights for the understanding on how users make the decisions when interacting with an AI. More precisely, we want to understand when and why users prefer to rely on their expertise/knowledge rather than the recommendations of an AI.

Previous works in the field of interactive machine learning have looked at ways to improve human trust in ML-based systems, namely by improving the interaction signals between the system and the humans. By enabling more complex human feedback than “yes/no” to the system, the user would better understand the behavior of the system and the system may perform better [Stumpf et al., 2009]. A complementary approach is to enable explanations from the system in order to improve the user understanding of the system behavior which has been assessed in a debugging context [Kulesza et al., 2015]. However, these approaches do not investigate how users will “cooperate”, “delegate”, “negotiate” with the AI (1) once they consider to have learned the behavior of the system, (2) in different contexts such as time pressure, risk management, etc.

In this internship in HCI, the student has to design, implement and conduct user studies to understand how the chosen factors (e.g. AI-based decision technique, user knowledge, practice, task, context, etc.) impact the decision of the users to rely or not on an AI to accomplish a task.

We will work with the student to (1) identify the key literature at the crossroad of HCI and AI, (2) identify the key factors to investigate (we foresee controlling factors such as perceived precision of the system, perceived knowledge of the user, cost of errors and time to make decisions), and (3) design the studies. We anticipate that this work will lead to a publication in a conference such as ACM CHI.

The internship may last from 4 to 6 months. If successful, the work could serve as the foundation for a Phd thesis.

Required skills • Knowledge about Human-Computer Interaction and/or cognitive science • Preferably a great interest in Machine Learning and Artificial Intelligence (no technical skills required) • Programming skills (e.g. python, Java) • Experience in experiment design, data analysis

Bibliographie

[Doshi-Velez et al., 2017] Doshi-Velez, F. and Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608.

[Kulesza et al., 2015] Kulesza, T., Burnett, M., Wong, W.-K., and Stumpf, S. (2015). Principles of ex- planatory debugging to personalize interactive machine learning. In Proceedings of the 20th international conference on intelligent user interfaces, pages 126–137. ACM.

[Stumpf et al., 2009] Stumpf, S., Rajaram, V., Li, L., Wong, W.-K., Burnett, M., Dietterich, T., Sullivan, E., and Herlocker, J. (2009). Interacting meaningfully with machine learning systems : Three experiments. International Journal of Human-Computer Studies, 67(8):639–662.


48. Analyse fonctionnelle du Secure Monitor de OP-TEE


Site : ALSOC
Lieu : Laboratoire de Paris 6 (LIP6)
Encadrant : Cécile Braunstein et Emmanuelle Encrenaz
Dates :du 01/02/2019 au 01/08/2019
Rémunération :Indemnités de stage fixées par décret (environ 600 euros/mois)
Mots-clés : Master SAR, autre qu’ATIAM

Description

Description ========

Aujourd’hui, les exigences des utilisateurs en matière de sécurité sont devenues incontournables. En outre, les systèmes sont de plus en plus complexes, ouverts et connectés. Pouvoir garantir la sécurité des systèmes et des données manipulées, souvent sensibles, est un enjeu majeur du développement des systèmes embarqués et autres objets connectés (IOT). Dans ce contexte, les environnements d’exécution de confiance (TEE :Trusted Execution Environment) ont été conçus pour tirer partie des architectures sûres tel l’architecture TrustZone de ARM. Ces plates-formes sécurisées permettent la coexistence de systèmes offrant différents niveaux de sécurité sur la même architecture. Par exemple sur un smartphone, le TEE peut être utilisé pour sécuriser les services de paiements comme la gestion de portefeuille électronique ou manipuler des données sensibles comme lors de l’authentification biométrique. OP- TEE ([6]) est un projet open source qui propose une implémentation complète d’un environnement d’exécution de confiance. Le TEE doit donc être capable de garantir l’authenticité du code qui s’exécute en mode sécurisé, l’intégrité de l’état d’exécution (état des registres, de la mémoire . . . ) et la confidentialité du code, des données qu’il manipule (cf. [8]). OP-TEE distingue deux mondes, l’un non sécurisé, utilisé pour les applications courantes et un autre sécurisé, dans lequel s’exécutent les services ayant recours à des données sensibles. On se propose dans ce stage d’étudier la présence ou l’absence propagation de donnée du monde sécurisé au monde non sécurisé. Un des éléments clé d’un TEE est le Secure Monitor. C’est le programme qui est appelé à chaque commutation entre le monde non-sécurisé et sécurisé au travers d’appels systèmes spécifiques induit par l’appel de services déployés dans des applications sécurisées. A la suite du stage de Maxime Ayrault nous avons un modèle du secure monitor de OP-TEE [7]. Notre étude vise l’enrichissement de ce modèle (notamment par le mécanisme d’interruption) et la vérification fonctionnelle du modèle. Les méthodes formelles offrent la possibilité de vérifier de façon automatique (ou partiellement automatique) des propriétés sur le code analysé (pour des systèmes de tailles moyennes). Ces méthodes sont généralement utilisées pour vérifier le bon fonctionnement de portions de programmes applicatifs ou de code système. Plus récemment, des approches émergent pour se concentrer sur les propriétés de sécurité des systèmes [3]. Dans le cadre de ce stage, nous sommes intéressés d’une part par la vérification fonctionnelle du modèle de OP-TEE à partir de la spécification des TEE [4, 5]. Cette spécification est développée par Global Platform qui regroupe un ensemble d’industriels, travaillant sur la standardisation des interfaces logiciels des TEE. D’autre part, nous souhaiterions vérifier des propriétés de sécurité, pour garantir la confidentialité de l’information : nous voulons montrer qu’une information ne peut pas être connue par des tiers non autorisés : une donnée du monde sécurisé ne peut être connue du monde non-sécurisé. Le model checker CPAchecker ([1]) est un outil de vérification qui implémente un grand nombre d’algorithmes de model checking [2]. Un objectif du stage sera aussi d’évaluer les différentes stratégie de vérification et de trouver la ou les plus adaptées à notre modèle.

Objectif du stage ===========

L’objectif du stage est la modélisation et la vérification d’une partie d’un TEE. Dans un premier temps, un modèle de Secure Monitor et de son environnement opérationnel devront être enrichis. Ensuite, en partant de la spécification du TEE, des propriétés fonctionnelles seront vérifiées sur le modèle au moyen du model-checker CPAChecker. Les algorithmes de model checking seront alors comparés. Enfin, la spécification pourra être complétée par l’ajout de propriétés de sécurité et des stratégies pour les vérifier. Déroulement du stage envisagé • Etude bibliographique sur OP-TEE et la spécification TEE • Analyse du code du secure monitor de Maxime Ayrault • Proposition d’ajout de comportements dans le modèle • Proposition de propriétés fonctionnelles • Etude des algorithmes de model checking implémentés dans CPAchecker • Analyse des performances du model checking • Réflexion sur la modélisation des propriétés de sécurité

Pre-requis : ========

Connaissance de la programmation assembleur, programmation C/C++/Java, structure des systèmes d’exploitation, algorithmes de model checking

Bibliographie

[1] Dirk Beyer and M. Erkan Keremoglu. CPAchecker : A Tool for Configurable Software Verification. In Com- puter Aided Verification, Lecture Notes in Computer Science, pages 184–190. Springer, Berlin, Heidelberg, July 2011.

[2] Edmund M. Clarke, Thomas A. Henzinger, Helmut Veith, and Roderick Bloem, editors. Handbook of Model Checking. Springer International Publishing, Cham, 2018.

[3] Onur Demir, Wenjie Xiong, Faisal Zaghloul, and Jakub Szefer. Survey of approaches for security verification of hardware/software systems. IACR Cryptology ePrint Archive, 2016:846, 2016.

[4] GlobalPlatform Device Technology. TEE Internal Core API Specification. Technical Report 1.1.2, Glob- alPlatform Inc, 2016.

[5] GlobalPlatform Device Technology. TEE Architecture specification. Technical Report 1.1, GlobalPlatform Inc, 2017.

[6] Linaro. optee_os : Trusted side of the TEE, December 2017. original-date : 2014-05-26T17:18:57Z.

[7] Maxime Ayrault. Analyse et modélisation du Secure Monitor de OP-TEE. Stage de recherche fin de Master,Sorbonne Université, 2018.

[8] Mohamed Sabt, Mohammed Achemlal, and Abdelmadjid Bouabdallah. Trusted Execution Environment : What It is, and What It is Not. In 14th IEEE International Conference on Trust, Security and Privacy in Computing and Communications, Helsinki, Finland, August 2015.


49. NODATA - Développeur Full-stack


Site : Site internet
Lieu : Siège NODATA - 19 rue Galilée - 75116 PARIS
Encadrant : Nicolas Brigitte-Alphonsine (CEO) - Cloé Goldsztejn (CPO)
Dates :du 11/02/2019 au 06/09/2019
Rémunération :selon profil
Mots-clés : Master SAR, autre qu’ATIAM

Description

Créé en 2015, NODATA, acteur emergent et ambitieux sur le marché ultra compétitif des outils de la DATA propose une Augmented Data Platform distribuée en mode SaaS à l’ensemble des industries afin d’exploiter au mieux les données de l’entreprise et en s’appuyant pour la prise des décision des IA et des Hommes.

En tant que développeur Full-Stack, vous travaillez au sein du département produit. Intégré dans une équipe de développement de 5-7 développeur sous la direction d’un team leader. Vous avez pour mission de participer à l’enrichissement et à l’amélioration continus de NODATA grâce à votre créativité et à vos compétences techniques. Vos activités :
- Participer au design (architecture technique, UX, intégration, ...) et au développement des fonctionnalités NODATA.
- Interagir avec toutes les équipes (support clients, design, UX, QA, ...) et le management pour vous assurer que vos développements couvrent bien les besoins de nos utilisateurs tout en s’inscrivant dans la philosophie de la plateforme.
- Enrichir continuellement la plateforme en proposant de nouvelles idées d’amélioration techniques et/ou fonctionnelles
- Développer des prototypes de fonctionnalités innovantes pour valider leur faisabilité avant leur intégration à la roadmap produit
- Bénéficier de toute notre écosystème de développement (Jira, Bitbucket, Bamboo, Confluence, Slack, ...) pour expérimenter le travail en entreprise et en équipe dans des conditions optimales.

Vos compétences :
- Polyvalent, organisé et curieux, vous aimez relever des défis.
- Bon communicant, vous aimez travailler en équipe. Vous connaissez bien le Framework Scrum.
- Vous maîtrisez de façon poussée un ou plusieurs langages de programmation de notre stack technique : C++, Java, JavaScript, TypeScript, HTML, CSS/SASS, Go, OCaml, NodeJs, Python, ...
- Autonome et créatif, vous apprenez vite et aimez être force de proposition.
- Passionné du domaine Logiciel, vous souhaitez en apprendre plus.

Bibliographie

http://nodata.co/view/careers


50. Support ZFS natif dans XCP-ng


Lieu : Vates SAS, 17 rue Aime Berey, 38000 GRENOBLE
Encadrant : Olivier Lambert, PDG et fondateur de Vates, créateur de Xen Orchestra et XCP-ng
Dates :Au choix dans l’intervalle du 11 février au 6 septembre
Rémunération :1200€
Mots-clés : Master SAR, autre qu’ATIAM

Description

> Note : embauche possible à l’issue du stage

> Note 2 : complémentaire du premier sujet de stage sur la nouvelle couche de stockage, travail probable en collaboration.

# Context

XCP-ng is a fork of Citrix XenServer. It’s fully Open Source and all your work will be available publicly. There is a large community of users.

More on https://xcp-ng.org

# Fully integrated ZFS support

ZFS is a combined file system and logical volume manager designed by Sun Microsystems. Sine it’s ported to Linux (via ZFS on Linux project), it could be integrated more easily into a broader ecosystem.

## Problem

Legacy storage stack of XS/XCP-ng isn’t build at all to deal with filesystem like ZFS : for example, O_DIRECT calls aren’t supported by ZFS, but used everywhere in the storage stack. Removing them "as is" can lead to cache poisoning and destroy all the performances.

## Architecture

Full ZFS support could be really powerful, eg to support ZFS snapshots directly, ZVOL and other ZFS features, from existing XAPI calls (VDI.snapshot). Obviously, there is a lot of chances that using SMAPIv3 would be smarter than building something new on a legacy storage stack.

The challenge is to expose all these features correctly in a "driver", without forgetting compatibility for other SR features (export/import, thin provisioning) and so on. However, an initial PoC with some benchmarks, even maybe comparing legacy vs SMAPIv3 would validate the technological choice.

## Skills required

* basic ZFS knowledge (basic commands, ZVOLs, snapshots) * basic Python knowledge (writing storage plugin for ZFS) * basic Linux storage knowledge (cache, storage benchmarking…)


51. Analyse et amélioration de la couche de stockage de XCP-ng, hyperviseur Open Source basé sur Xen/QEMU


Lieu : Vates SAS, 17 rue Aime Berey, 38000 GRENOBLE
Encadrant : Olivier Lambert, PDG et fondateur de Vates, créateur de Xen Orchestra et XCP-ng
Dates :Au choix dans l’intervalle du 11 février au 6 septembre
Rémunération :1200€
Mots-clés : Master SAR, autre qu’ATIAM

Description

> Note : embauche possible à l’issue du stage

# Context

XCP-ng is a fork of Citrix XenServer. It’s fully Open Source and all your work will be available publicly. There is a large community of users.

More on https://xcp-ng.org

# New storage stack (SMAPIv3)

Since XenServer 7.4, Citrix released a first storage mechanism (GFS2) using the new storage stack, called SMAPIv3. This stack can work in parallel with the legacy stack (based on tapdisk).

## Problem

All their "user side" code is proprietary, but SMAPIv3 API is Open Source. Some initial benchmarks are showing similar read performances, but tremendous random write improvements (+100%). You can read the public documentation here : http://xapi-project.github.io/xapi-...

The new storage stack rely heavily on qemu-dp, a fork of QEMU, but without being maintained publicly. Only ".patches" are released for a new XenServer released, to comply GPLv2 license.

## Architecture

The goal will be to create a public fork of qemu-dp, add the patches and improve it. Ideally, faster than Citrix, to become the unavoidable upstream. There is probably room for improvements on this fork (which is "only" creating a binary to deal with Xen VMs).

Before going there, a good understanding on how this stack works will be a great start, creating a complete/clear documentation (eg a picture on which component does what)

## Skills

* good C skills to understand qemu and its interaction with Xen VMs * good Python skills (Python is used to make the "glue" with the toolstack) * basic syscall/Linux knowledge on storage side


52. Support des VXLAN dans XCP-ng


Lieu : Vates SAS, 17 rue Aime Berey, 38000 GRENOBLE
Encadrant : Olivier Lambert, PDG et fondateur de Vates, créateur de Xen Orchestra et XCP-ng
Dates :Au choix dans l’intervalle du 11 février au 6 septembre
Rémunération :1200€
Mots-clés : Master SAR, autre qu’ATIAM

Description

> Note : embauche possible à l’issue du stage

# Context

XCP-ng is a fork of Citrix XenServer. It’s fully Open Source and all your work will be available publicly. There is a large community of users.

More on https://xcp-ng.org

# VXLAN support

Virtual Extensible LAN (VXLAN) is a network virtualization technology that attempts to address the scalability problems associated with large cloud computing deployments.

## Context

When used in large scale (whole datacenter), XCP-ng should support VXLAN to ease the work of administrator and allow more scalable architecture. There is already some companies interested to provide at least assistance or guidance on that, because running (or will run) XCP-ng on these scales.

## Problem

VXLAN is already embed in Open vSwitch, in a version running in XCP-ng since 7.5. The main problem is to know how to create this network "manually", then if it’s possible to create everything around it to expose it from "end to end" (from XAPI to the UI, eg xe CLI and also Xen Orchestra, the latter will be done by XO team directly).

## Skills required

Network skills are important here, but not only :

* good understanding on "advanced" network technologies (Open vSwitch knowledge is a big plus) * being able to create a manual PoC first * being able to grasp the whole stack (from OVS to XAPI) to expose and automat this task (a bit of OCaml knowledge is a plus)


53. Socially Intelligent Computing for Groups’ Analysis


Site : Socially Intelligent Computing for Groups’ Analysis
Lieu : Laboratoire Traitement et Communication de l’Information”, Telecom ParisTech, Paris, France
Encadrant : Giovanna Varni (giovanna.varni@telecom-paristech.fr)
Dates :du 1/03/2019 au 1/09/2019
Rémunération :full-time intern fellowship according to the Telecom ParisTech salary scale
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Traitement du signal

Description

An intern position extendable in a 3-years fully funded PhD student position is now available at “Laboratoire Traitement et Communication de l’Information”, Telecom ParisTech, Paris, France (https://www.telecom-paristech.fr/en...)

Topic ******* Socially Intelligent Computing for Groups’ Analysis

Supervisor ********* Prof Giovanna Varni

Keywords ******** Social Signal Processing, Affective Computing, Information Technology, multimodal data analysis, multimodal dataset, machine learning, deep learning, computer vision, experimental design.

Framework : ********** The internship (and the possible thesis) will focus on the development of a computational model of cohesion in groups’ of humans, able to integrate task and social dimensions and also accounting for their development over time. This work will be conducted in the framework of the 3-years long ANR JCJC French national project GRACE (Groups’ Analysis for automated Cohesion Estimation) starting in mid-late 2019.

Recently, with the advent of Social Signal Processing aiming at developing socially intelligent machines [1], Computer Science research took interest in investigating and quantifying relational phenomena involving two or more persons. Groups of people are a fascinating interdisciplinary phenomenon. They can be defined as bounded and structured entities that emerge from the purposive, interdependent actions of individuals.

One of the current open challenges on automated groups’ analysis is to provide computational models of higher level concepts called “emergent states”, that is, states emerging as the result of affective, behavioral and cognitive interaction among the members of a group [2]. Cohesion is one of these states considered as a highly valued group property serving crucial roles for group effectiveness and performance.

Scholars proposed theoretical models of cohesion having from one to five dimensions [3]. Among these dimensions, the task and social ones were the most investigated. The task dimension concerns the extent to which group members are united to achieve the group’s goals and objectives ; the social dimension refers to the social relationships within the group (e.g. the extent to which group members like each other.

Tasks ***** The intern will work on several tasks :

1) Studying the state-of-the-art on cohesion to identify which are its most suitable and frequent multimodal behavioral descriptors. State-of-the-art will span several research fields, including sociology, psychology, and computer science

2) Computing multimodal behavioral descriptors of cohesion

4) Designing, implementing, and evaluating a computational model of cohesion

Candidate profile ************** The ideal candidate should have a strong background on Computer Science, AI, Information Technology, Applied Mathematics or closely related fields is preferable. In addition to a passion for science and programming, the candidate should be open to approach and solve the issues linked to Human-Computer Interaction.

The following skills are also expected :
- Good command of English (written and spoken). French language is not a mandatory requirement
- Interest in multidisciplinary research at the interface between computer science and sociology/psychology
- Proof of Excellent student career
- Strong programming skills (e.g. C++/Python)
- Very good communication skills, commitment, independent working style as well as initiative and team spirit

Offer : ***** Starting date : March/Avril 2019.

Salary : full-time intern fellowship according to the Telecom ParisTech salary scale.

Application deadline : the evaluation of the candidates starts immediately and it will continue until the position is filled.

Application ********* To apply please send by email to giovanna.varni@telecom-paristech.fr in a single pdf file :
- A cover letter stating your research interests and how they could be related to the research topic the thesis focuses on.
- A detailed CV
- Transcripts of student records of your MSc

For any additional questions about the position, please contact Prof. Giovanna Varni (giovanna.varni@telecom-paristech.fr). Please quote “Intern position” in the email subject for both asking information and application.

Bibliographie

[1] Vinciarelli, A., Pantic, M., and Bourlard, H. 2009. Social signal processing, Image and Vision Computing, 27, 12, pp. 1743-1759. [2] Nanninga, M. C., Zhang, Y., Lehmann-Willenbrock, N., Szlavik, Z., and Hung, H. 2017. Estimating verbal expressions of task and social cohesion in meetings by quantifying paralinguistic mimicry, in Proceedings of the 19th ACM International Conference on Multimodal Interaction, pp. 206-215. [3] Salas, E., Grossman, R., Hughes, A. M., and Coultas, C. W., 2015. Measuring team cohesion : Observations from the science. Human Factors, 57, 3, pp. 365-374.


54. Mesures et modélisation des réponses en fréquence pour un transducteur audio spécialisé


Site : Stage confidentiel
Lieu : Sjherbrooke, Québec, Canada
Encadrant : PHilippe-Aubert Gauthier
Dates :01/02/2019 au 01/08/2019 (négociable et flexible)
Rémunération :8750$ (canadiens, pour toute la durée du stage, flexible)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Mesures et modélisation des réponses en fréquence pour un transducteur audio spécialisé. Le stage est en quatre parties : (1) caractérisation expérimentale d’un nouveau transducteur audio, (2) simulation numérique de la réponse du transducteur couplé (vibration et rayonnement), (3) campagne de mesures expérimentales en chambre anéchoïque avec mannequin binaural et réseau de microphones, (4) rapport et interprétation des résultats. Le stage sera effectué dans le cadre d’un partenariat avec une prometteuse start-up canadienne dans le domaine de l’audio. Le stage combinera le français et l’anglais (les collaborateurs industriels sont anglophones) (la partie anglophone reste moindre que la partie francophone) (négociable).

Bibliographie

[1] Heilemann, M. C., Anderson, D. & Bocko, M. F. Source Rendering on Dynamic Audio Displays. in IEEE Workshop on Applications of Signal Processing to Audio and Acoustics 334–338 (2017).

[2] Heilemann, M. C., Anderson, D. & Bocko, M. F. Sound-Source Localization on Flat-Panel. J. Audio Eng. Soc. 65, 168–177 (2017).

[3] Klippel, W. Scanning the Magnetic Field of Electrodynamic Transducers. J. Audio Eng. Soc. 60, 452–458 (2012).

[4] Kuster, M., Vries, D. De, Beer, D. & Brix, S. Structural and Acoustic Analysis of Multiactuator Panels. J. Audio Eng. Soc. 54, 1065–1076 (2006).

[5] Lang, G. F. Electrodynamic Shaker Fundamentals. Sound Vib. 1–8 (1997).

[6] Wang, B., Liu, D., Zhou, L. & Li, H. Electrodynamic Shaker Skeleton Optimization Based on Border Shape Analysis. in 2009 4th IEEE Conference on Industrial Electronics and Applications 3834–3838 (IEEE, 2009). doi:10.1109/ICIEA.2009.5138924

[7] Zhou, L., Han, J. & Ji, G. Optimum design of new high strength electrodynamic shaker in broad work frequency range. Int. LTD. J. VIBROENGINEERING 16, 2552–2563 (2014).


55. Développement d’un outil d’annotation semi-automatique de base de données d’enregistrements sonores


Lieu : Wavely - Villeneuve d'Ascq (Métropole Lilloise)
Encadrant : Julien Roland (Wavely), David Sodoyer (IFSTTAR)
Dates :Flexible (idéalement Mars/Août)
Rémunération :525€ / mois + Tickets restaurant
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

**Description du projet** Wavely développe des outils de surveillance d’environnements sonores ainsi que de certaines sources sonores particulières comme des équipements industriels. Ces outils de surveillance couplent une solution matérielle de mesure acoustique métrologique, un traitement du signal audionumérique avancé et des algorithmes de reconnaissance de signature sonore. Ces outils de classification de sources sonores se basent principalement sur des modèles de Machine Learning. Or, l’entraînement de ceux-ci nécessite de disposer de bases de données rigoureusement annotées. Cette étape d’annotation des enregistrements sonores est fastidieuse ; elle peut prendre la durée des enregistrements et nécessite des outils d’annotation adaptés. Elle correspond in fine à l’étape la plus coûteuse dans la mise en production d’une solution de classification de signature sonore. Dans un contexte où l’intelligence artificielle est en pleine émergence, nous recrutons un stagiaire ingénieur pour 6 mois, afin de créer de nouveaux produits et services de surveillance sonore automatique de systèmes mécaniques, de systèmes électriques, ou encore de véhicules autonomes... L’objectif principal du stage est de gagner en efficacité et en autonomie dans le processus d’entraînement des modèles d’apprentissage automatique. La direction prise dans le cadre de ce stage sera d’entraîner des modèles sans avoir recours à une annotation complète de la base de données. Plusieurs techniques d’entraînement pourront être employées telles que l’apprentissage par transfert ou l’apprentissage actif. Le stagiaire pourra s’appuyer sur plusieurs bases de données acoustiques et audionumériques partiellement annotées. Le stagiaire pourra également utiliser des briques logicielles Python développées par Wavely pour l’extraction d’indicateurs acoustiques et l’entraînement de modèles d’apprentissage. Ce stage se déroulera dans le cadre d’une collaboration entre Wavely et l’IFSTTAR et pourra se poursuivre par une thèse de doctorat.

**Votre environnement de travail**
- Wavely est une start-up innovante de l’IoT appliqué à l’analyse des signaux acoustiques. Fondée par une équipe d’experts en acoustique, micro-électronique et traitement du signal sonore, Wavely est soutenue par de nombreux organismes comme le CNRS, la région Hauts-de-France, la BPI et la SATT.
- Wavely conçoit et développe des outils de mesure et d’analyse appliqués à la maintenance préventive dans l’Industrie 4.0 et à la mesure des nuisances sonores dans les Smart Cities. Wavely propose un réseau de capteurs acoustiques autonomes et une suite logicielle associée intégrant des algorithmes de diagnostic.
- Basée à Villeneuve d’Ascq (proche Lille), au sein du laboratoire CNRS IEMN, Wavely dispose des facilités de développement, de fabrication et de caractérisation d’un grand laboratoire de recherche en électronique et en acoustique.

**Description des missions** Durant votre stage vous serez responsable
- de la création de nouvelles bases de données (si nécessaire),
- du développement d’un outil d’annotation semi-automatique de base de données d’enregistrements sonores,
- d’un benchmark des techniques d’entraînement de modèles d’apprentissage automatique à partir de base de données partiellement ou mal annotée.


56. Transitoire d’attaque dans la flûte à bec : influence de paramètres de facture


Lieu : Lutherie-Acoustique-Musique, Institut d'Alembert, 4 place Jussieu, 75005 Paris
Encadrant : Benoît FABRE
Dates :du 18/2/2019 au 18/7/2019
Rémunération :Gratification (environ 500 E mensuel)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte

Les instruments de musique de la famille des flûtes ont fait l’objet de nombreuses études. Pour des raisons qui touchent à la difficulté d’analyse mais aussi aux systèmes de mesure, les régimes stationnaires ont été étudiés en priorité. Même s’il reste des directions de recherche à développer, la connaissance que nous avons du fonctionnement en régime stationnaire à l’heure actuelle permet d’interpréter certains paramètres de la facture instrumentale. Malgré leur importance reconnue du point de vue perceptif, les régimes transitoires ont été moins étudiés.

Les derniers travaux menés dans l’équipe LAM sur les régimes transitoires dans les flûtes ont permis de mettre à jour les effets respectifs de l’instrumentiste, qui contrôle l’évolution temporelle de la pression d’alimentation, et ceux de la facture, qui impose la géométrie de l’instrument. Le projet se situe à la convergence entre plusieurs disciplines, mêlant des aspects liés à la dynamique des systèmes non-linéaires, à l’hydrodynamique et à l’aéro-acoustique, aux questions de facture instrumentale, et, le cas échéant de technique et de style musical.

Objectifs

Le travail se développera autour de flûtes à bec spécialement réalisées par un facteur pour permettre des variations de géométrie du canal, tout en conservant le reste de l’instrument inchangé. Plusieurs types d’attaques pourront être réalisés, tant par un système automatique que par des instrumentistes. L’analyse des signaux de pression permettra :
-  D’étudier l’influence des paramètres de facture sur les transitoires d’attaque.
-  D’interpréter le comportement de l’instrument au travers de modèles mêlant les aspects acoustiques, hydrodynamiques et aéroacoustiques.

Compétences

Le travail fera appel à des connaissances en acoustique, en traitement du signal. L’analyse des signaux expérimentaux nécessitera l’utilisation d’environnement de calcul comme Matlab. Une expérience musicale constituera un atout supplémentaire pour mener ce travail.


57. Stratégies respiratoires dans le jeu des instruments à vent


Lieu : Institut de Physique de Nice Université Côte d’Azur – CNRS UMR 7010 Parc Valrose - 06100 NICE ET LAM – Institut d’Alembert 4, place Jussieu - 75252 PARIS Cedex 05
Encadrant : Olivier LEGRAND & Benoît FABRE
Dates :18/02/2019 au 18/07/2019
Rémunération :gratification statutaire
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Contexte et objectifs Ce projet s’inscrit dans la suite des études consacrées à la façon dont les instrumentistes à vent et les chanteurs utilisent leur système respiratoire dans le jeu musical. Plus précisément, il s’agit de comprendre comment les instrumentistes et les chanteurs adaptent leur contrôle aux contraintes musicales, physiologiques et instrumentales. Des modèles du système respiratoire utilisés prioritairement pour le diagnostic médical, une fois adaptés aux conditions de la pratique instrumentale, doivent permettre de prédire les efforts musculaires à partir des données récoltées sur des sujets en situation de pratique instrumentale ou vocale. Grâce à une collaboration avec des instrumentistes enseignant au Pôle Supérieur Paris Boulogne-Billancourt et aux Conservatoires à Rayonnement Régional de Nice et d’Aubervilliers, ainsi que des instrumentistes du Choeur & Orchestre Sorbonne Université et de l’Orchestre Philharmonique de Monte-Carlo, ce projet vise également à apporter des éléments techniques en retour pour une compréhension plus approfondie de la pratique instrumentale aussi bien que de la pratique pédagogique. En effet ces pratiques sont généralement fondées sur la base de sensations que les résultats permettront de mettre en regard d’éléments physiologiques. Les données en situation musicale de jeu seront récoltées à partir d’un dispositif expérimental léger et portable permettant d’effectuer plus aisément des mesures dans des lieux et situations traditionnelles de la pratique instrumentale. Il sera essentiellement constitué d’une (ou deux) ceinture(s) respiratoire(s) (pléthysmographe par inductance abdominal ou thoracique) permettant de remonter au volume pulmonaire et d’un capteur de pression dans la bouche.

Compétences Le travail fera appel à des connaissances en acoustique, en traitement du signal. L’analyse des signaux expérimentaux nécessitera l’utilisation d’environnement de calcul comme Matlab. Une expérience musicale constituera un atout supplémentaire pour mener ce travail.


58. Restitution binaurale de scènes sonores captées par des microphones sphériques et encodées en format Higher Order Ambisonics (HOA). Application à la réalité virtuelle / augmentée audio.


Site : Espaces Acoustiques et Cognitifs
Lieu : IRCAM
Encadrant : Thibaut Carpentier, Markus Noisternig, Olivier Warusfel
Dates :01/02/19 au 31/07/19
Rémunération : 530€ / mois + 50% titre transport / tickets repas
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Contexte et motivations : Ambisonics désigne une technique de captation, de synthèse et de reproduction de scènes sonores, permettant un rendu spatialisé sur des dispositifs périphériques (circulaires ou sphériques) de haut-parleurs [daniel:2001]. La technique repose sur une description modale du champ sonore 3D dans une base de fonctions orthogonales, les harmoniques sphériques. Cette représentation, compacte, hiérarchique, et indépendante du format de diffusion, permet de manipuler aisément les caractéristiques spatiales du champ sonore, par exemple pour simuler des rotations de la scène. La captation d’une scène en format Ambisonics repose sur des réseaux microphoniques, disposés de façon quasi-coïncidente, typiquement selon une géométrie sphérique. Les signaux captés par les différentes cellules doivent faire l’objet d’un encodage (matriçage et filtrage) afin de produire un flux compatible avec le formalisme Ambisonics [moreau:2006]. L’usage de ces dispositifs de prise de son est en voie de démocratisation, et différents modèles de microphones dits « à haute résolution spatiale » sont désormais disponibles commercialement. Ces éléments concourent au déploiement du format Ambisonics, devenu ces dernières années un standard de facto pour la production et la post-production de contenus multimédia, en particulier dans les domaines de la vidéo 360° et de la réalité virtuelle/augmentée. Ces contenus sont le plus souvent présentés en écoute individuelle au casque, en s’appuyant sur la technique binaurale qui permet une restitution fidèle des indices acoustiques de localisation auditive via les fonctions de transfert de la tête (Head-Related Transfer Functions, HRTF).

L’équipe EAC développe depuis plusieurs années une suite d’outils pour la production et la post-production audio spatialisée [carpentier:2016][carpentier:2015]. L’enjeu du stage est d’étendre et optimiser plusieurs briques de la chaîne de traitement Ambisonics. Plus particulièrement, le travail portera sur les modules d’encodage des microphones sphériques, et de transcodage d’un flux Ambisonics vers une restitution binaurale.

Travail à réaliser : 1) Module d’encodage de microphones sphériques 1.1) Réalisation d’un banc de filtres d’encodage tenant compte de la configuration du réseau (description géométrique et propriétés des cellules microphoniques). Simulation numérique et comparaison objective de différentes topologies. Analyse des propriétés spectrales et de la résolution spatiale. 1.2) Optimisation de l’encodeur à partir d’une caractérisation acoustique de la fonction de directivité du réseau, mesurée en conditions anéchoïques.

2) Module de transcodage Ambisonics vers binaural Plusieurs approches ont d’ores et déjà été proposées :
-  Décodage de la scène Ambisonics sur un réseau de haut-parleurs virtualisés [noisternig:2003][mckeag:1996],
-  Décomposition du champ sonore sous forme d’ondes planes, pondérées par les HRTFs des directions correspondantes [duraiswami:2005][menzies:2007],
-  Extraction paramétrique non-linéaire des sources sonores et filtrage par les HRTFs correspondantes [berge:2010],
-  Décomposition harmonique du jeu de HRTFs, et filtrage du champ Ambisonics dans le domaine modal [rafaely:2010][bernschütz :2014].

Ces approches peuvent conduire à divers artefacts de reproduction, notamment : erreur de reconstruction du champ sonore en basses fréquences, colorations spectrales hautes fréquences, dégradation des différences interaurales de temps, etc. [solvang:2008][vennerød:2014] [zaunschirm:2018]. Le travail à mener consistera donc en :

2.1) Implémentation et étude comparative des différentes approches de transcodage. Caractérisation objectives des artefacts de reproduction. 2.2) Etude de faisabilité d’un transcodeur temps-réel, notamment en exploitant une décomposition phase-minimale des HRTFs.

Compétences requises :
- Solides compétences en traitement du signal (représentations temps-fréquence-espace),
- Notions d’acoustique physique et de psycho-acoustique,
- Bonne maîtrise de Matlab,
- Connaissance de l’environnement Max/MSP appréciée.

Apports pour l’étudiant : L’analyse/synthèse de champs sonores 3D est un domaine de recherche en pleine expansion, porté par différents laboratoires européens et des industriels du secteur multimédia. Le stage propose de mettre en œuvre des connaissances en acoustique physique et en traitement du signal, et vise des applications de mixage et production audio.

Bibliographie

[daniel:2001] J. Daniel. Représentation de champs acoustiques, application à la transmission et à la reproduction de scènes sonores complexes dans un contexte multimédia. PhD thesis, Université de Paris VI, 2001.

[moreau:2006] S. Moreau. Etude et réalisation d’outils avancés d’encodage spatial pour la technique de spatialisation sonore Higher Order Ambisonics : microphone 3D et contrôle de distance. PhD thesis, Université du Maine, 2006.

[zaunschirm:2018] M. Zaunschirm, C. Schörkhuber, and R. Höldrich. Binaural rendering of Ambisonic signals by head-related impulse response time alignment and a diffuseness constraint. Journal of the Acoustical Society of America, 143(6):3616 – 3627, June 2018.

[rafaely:2010] B. Rafaely and A. Avni. Interaural cross correlation in a sound field represented by spherical harmonics. Journal of the Acoustical Society of America, 127(2):823 – 828, Feb 2010.

[solvang:2008] A. Solvang. Spectral Impairment of Two-Dimensional Higher Order Ambisonics. Journal of the Audio Engineering Society, 56(4):267 – 279, April 2008.

[vennerød:2014] J. Vennerød. Binaural Reproduction of Higher Order Ambisonics - A Real-Time Implementation and Perceptual Improvements. Master’s thesis, Norwegian University of Science and Technology (Trondheim), 2014.

[bernschütz:2014] B. Bernschütz, A. V. Giner, C. Pörschmann, and J. Arend. Binaural reproduction of plane waves with reduced modal order. Acta Acustica united with Acustica, 100:972 – 983, 2014.

[enzner:2013] G. Enzner, M. Weinert, S. Abeling, J.-M. Batke, and P. Jax. Advances System Options for Binaural Rendering of Ambisonic Format. In Proc. of IEEE International Conference on Acoustics, Speech, and Signal Processing, pages 251 – 255, 2013.

[tylka:2015] J. G. Tylka and E. Y. Choueiri. Comparison of Techniques for Binaural Navigation of Higher-Order Ambisonic Soundfields. In Proc. of 139th Convention of the Audio Engineering Society, New York, NY, USA, Oct 2015.

[noisternig:2003] M. Noisternig, A. Sontacchi, T. Musil, and R. Höldrich. A 3D Ambisonic Based Binaural Sound Reproduction System. In Proc. of AES 24th International Conference on Multichannel Audio, June 2003.

[mckeag:1996] A. McKeag and D. S. McGrath. Sound field format to binaural decoder with head tracking. In AES 6th Australian Regional Convention, Melbourne, Australia, Aug 1996.

[menzies:2007] D. Menzies. Nearfield Synthesis of Complex Sources with High-Order Ambisonics, and Binaural Rendering. In Proc. of the 13th International Conference on Auditory Display, Montreal, Canada, June 2007.

[duraiswami:2005] R. Duraiswami, D. N. Zotkin, Z. Li, E. Grassi, N. A. Gumerov, and L. S. Davis. High Order Spatial audio capture and binaural head-tracked playback over headphones with HRTF cues. In Proc. 119th Convention of the Audio Engineering Society, New York, NY, USA, Oct 2005.

[berge:2010] S. Berge and N. Barrett. A New Method for B-Format to Binaural Transcoding. In Proc. of the 40th International Conference of the Audio Engineering Society, Tokyo, Japan, Oct 2010.

[carpentier:2016] T. Carpentier. Panoramix : 3D mixing and post-production workstation. In Proc. 42nd International Computer Music Conference (ICMC), pages 122 – 127, Utrecht, Netherlands, Sept 2016.

[carpentier:2015] T. Carpentier, M. Noisternig, and O. Warusfel. Twenty Years of Ircam Spat : Looking Back, Looking Forward. In Proc. of the 41st International Computer Music Conference, pages 270 – 277, Denton, TX, USA, Sept. 2015.


59. Réalité augmentée audio : navigation dans une carte sonore interactive


Site : Noise Makers
Lieu : Rennes
Encadrant : Charles Verron
Dates :du 01/02/2019 au 31/07/2019
Rémunération :Gratification
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Les services de cartographie en ligne (e.g., Google Maps, OpenStreetMap, MapBox...) permettent de naviguer dans des villes numériques de plus en plus réalistes. Les dernières évolutions incluent des représentations 3D des bâtiments, des textures à plusieurs niveaux de détails, la visualisation de données complexes (e.g., cartes de température, de bruit, etc.). Noise Makers s’intéresse aujourd’hui à l’ajout de sons 3D dans ces cartes, et aux problématiques liées à la navigation temps-réel. L’enjeu est de définir des algorithmes audio 3D efficaces, pour la réalité augmentée et les applications web.

La première phase du stage consistera à réaliser une bibliographie et à se familiariser aux outils existants. Le stagiaire sera guidé en ce qui concerne l’audio 3D (formats immersifs et

rendu temps-réel). Dans un second temps un prototype sera développé en JavaScript à l’aide de la Web Audio API. Différentes stratégies de navigation audio seront implémentées et évaluées sur plusieurs plateformes (ordinateurs, tablettes, téléphones portables). Cela permettra de définir une gestion de l’audio 3D adéquate pour la réalité augmentée, offrant un compromis entre immersion, interactivité et coup de calcul.

Bibliographie

Bibliographie [1] http://montrealsoundmap.com/ [2] http://sonicmaps.org [3] http://www.soundways.eu/web/ [4] http://www.topophonie.com/ [5] Lemordant, Jacques, and Yohan Lasorsa. "Augmented reality audio editing." 128th AES Convention. 2010. [6] Janer, Jordi, Gerard Roma, and Stefan Kersten. "Authoring augmented soundscapes with user-contributed content." ISMAR Workshop on Authoring Solutions for Augmented Reality. 2011. [7] Francis Rumsey, "Spatial audio, Channels, objects, or ambisonics ?", J. Audio Eng. Soc., Vol. 66, No. 11, 2018 November


60. Opérateurs morphologiques, treillis quotients et transformations algébriques en analyse musicale computationnelle


Lieu : Ircam - Télécom Paris-Tech
Encadrant : Carlos Agon, Moreno Andreatta, Isabelle Bloch
Dates :18 février – 31 juillet 2019
Rémunération :Tarif en vigueur IRCAM
Mots-clés : Parcours ATIAM : Informatique musicale

Description

La morphologie mathématique (MM) est une théorie générale de l’analyse de formes géométriques fondée, pour sa partie déterministe, sur des concepts empruntés à la théorie des treillis, la topologie, la géométrie discrète, et la géométrie intégrale entre autres [Serra, 1982]. Elle a été étendue pour traiter des questions relatives au calcul spatial [Bloch, 2002], aux raisonnement logiques (au travers de la Morpho-Logique) [Bloch and Lang, 2002], ou encore pour raisonner sur des concepts émanant de l’Analyse des Concepts Formels ou FCA [Atif et al., 2013]. A partir de quelques résultats récents sur les relations entre la MM et la FCA [Relaño 2017], ce stage se concentre sur une étude des opérateurs morphologiques susceptibles de définir des treillis quotients ainsi que des transformations algébriques correspondantes pour l’analyse musicale computationnell TDS (reviser) mail pur responsablese. Traditionnellement, la recherche en musicologie computationnelle s’oriente vers des concepts et des outils qui s’appliquent soit à l’analyse du signal audio, soit à l’analyse de structures symboliques, de manière à peu près orthogonale. L’objectif principal de ce stage est d’étudier des modèles mathématiques issus du calcul algébrique et topologique permettant éventuellement de relier ces deux approches à travers la notion de « représentation » des données dans des langages de programmation pour l’analyse et la composition assistée par ordinateur [Agon, 2004]. Plus exactement, nous allons nous intéresser à des modèles de calcul et des paradigmes informatiques non conventionnels qui utilisent des structures mathématiques de type algébrique, géométriques, topologiques et, comme dans le cas de la morphologie mathématique, un mélange des structures mentionnées précédemment et des structures d’ordre (treillis de Galois). Afin de restreindre l’objet d’étude, dans le cadre de ce stage nous allons nous concentrer sur le Tonnetz (ou réseaux des notes), une représentation des structures musicales qui est susceptible d’être formalisée à l’aide de la notion de complexe simplicial [Bigo 2013 ; Bigo et al. 2015] et sur le permutoèdre d’Estrada, une représentation de l’espace harmonique basée sur la théorie des treillis. Si l’utilisation du Tonnetz et de ses variantes (isotropes et non-isotropes) permet d’aborder des problèmes-type de la communauté MIR tels que la reconnaissance d’accords, des rythmes, des motifs et, dans une échelle plus large, des progressions harmoniques [Bigo 2013 ; Bergomi 2015 ; Lascabettes, 2018], la question de ses liens avec d’autres structures combinatoires, telles le permutoèdre, reste ouverte, en particulier si l’on essaie d’établir des liens entre des approches basées sur l’homologie persistante et des approches algébriques issus de la théorie des treillis. On retrouve ainsi, via l’analyse musicale, les problèmes qui se posent dans l’analyse topologique des données scientifiques ainsi que les efforts de la communauté des chercheurs travaillant sur l’homologie persistante pour développer des logiciels susceptibles de calculer l’homologie persistante à partir de complexes simpliciaux. D’un point de vue théorique, le stage s’efforcera de faire le lien entre différentes structures algébriques et topologiques (treillis, graphes, complexes simpliciaux, Tonnetz...) afin de mettre en évidence ce que pourrait apporter la morphologie mathématique dans la formalisation des structures musicales. En particulier, il s’agira d’interpréter musicalement les opérateurs morphologiques à la base des treillis quotients ainsi que les multiples définitions des distances dans des espaces d’accords [Genuys, 2017].

Bibliographie

MorphoMath & FCA

• [Agon et al. 2018] Agon C., Andreatta M., Atif J., Bloch I., Mascarade P. (2018), « Musical Descriptions Based on Formal Concept Analysis and Mathematical Morphology », in P. Chapman et al. (eds), Graph-Based Representation and Reasoning, Proceedings of the 23rd International Conference on Conceptual Structures, ICCS 2018, p. 105-119. • [Atif et al. 2013] Atif, J., Bloch, I., Distel, F., & Hudelot, C., « Mathematical morphology operators over concept lattices », In Formal Concept Analysis (pp. 28-43), Springer Berlin Heidelberg, 2013. • [Bloch, 2002] Bloch, I., « Modal Logics based on Mathematical Morphology for Spatial Reasoning », Journal of Applied Non Classical Logics, 12(3-4), 399-424, 2002. • [Bloch et Lang, 2002] Bloch, I., & Lang, J., « Towards mathematical morpho-logics ». In Technologies for Constructing Intelligent Systems 2, Physica-Verlag HD, 367-380, 2002. • [Bloch et Atif, 2016] Bloch. I, Atif. J., « Defining and computing Hausdorff distances between distributions on the real line and on the circle », Mathematical Morphology-Theory and Applications, 2016. • [Relaño 2017] Relaño P., Morphologie mathématique, FCA et musicologie computationnelle, Master 2 maths-info, ENS-Lyon / LTCI/Télécom ParisTech / LAMSADE, Université Paris Dauphine / IRCAM-CNRS-UPMC), March-July 2017 • [Serra, 1982] Serra, J., Image Analysis and Mathematical Morphology, Academic Press, London, 1982

Tonnetz, FCA et musicology computationnelle

• [Agon, 2004] Agon, C., Langages de programmation pour la composition musicale, HDR, UPMC, 2004 • [Bergomi, 2015] Bergomi, M., Dynamical and topological tools for (modern) music analysis, thèse de doctorat en cotutelle UPMC/LIM Milan, 2015. • [Bergomi et al., 2016], Bergomi, M., A. Baratè, B. Di Fabio, « Towards a Topological Fingerprint of Music », in in A. Bac and J.-L. Mari (eds), Computational Topology in Image Context, LNCS, pp 88-100 • [Bigo, 2013] Bigo L., Représentation symboliques musicales et calcul spatial, thèse de doctorat, université Paris Est Créteil / Ircam, décembre 2013 • [Bigo et al., 2015] Bigo L., D. Ghisi, A. Spicher, M. Andreatta, « Representation of Musical Structures and Processes in Simplicial Chord Spaces », Computer Music Journal, vol. 39, n° 3, p. 9-24, 2015. • [Freund et al., 2015] Freund A., M. Andreatta, J.-L. Giavitto, « Lattice-based and Topological Representations of Binary Relations with an Application to Music », AMAI, vol. 73, n° 3-4, 311-334, 2015. • [Genuys 2017] Genuys G., Étude de deux concepts mathématico-musicaux : l’homométrie non-commutative et les distances d’accords, UPMC/Ircam, 2017. • [Lascabettes 2018] Lascabettes P., Homologie persistante appliquée à la reconnaissance de genres musicaux, stage du Master 1 en mathématiques fondamentales (co-direction M. Andreatta et C. Guichaoua, SMIR Project) • l’Ecole Normale Superieure Paris-Saclay / université de Strasbourg, 2018 • [Masetti 2014] Masetti, G., Chord Catalogs and Estrada Classes : partially ordered Set approach, Tesi di Laurea en mathématiques (équivalent Master 2 mathématiques), juillet-septembre 2014 (co-direction M. Andreatta et F. Acquistapace, Université de Pise. Co-encadrement : Mattia Bergomi).


61. Audio DSP Engineer Intern


Site : Stage Confidentiel
Lieu : SoundTalks Offices in Leuven, Belgium
Encadrant : Wim Buyens, Cournut François
Dates :2019
Rémunération :Environ 1200€ / Mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Audio Digital Signal Processing Engineering Intern (Confidential Internship)

Being a global player in the growing PLF industry, we are seeking talented DSP-Engineer interns to join our team for a 6 months internship. The accepted candidates will be able to work on the next generation of audio-analysis algorithm from the first day and help building a game changing product. Are you passionate about audio signal processing and would like to have the opportunity to take current technologies to the next stage ? You are a creative mind, do not like thinking inside a confining box and your abilities give you great confidence in your own work ? Then we would like to hear from you !

Responsibilities : • Becoming fluent in SoundTalks sound analysis algorithms. • Developing new algorithms and extend the core set of sound features. • Validating new audio algorithms agains our large database of existing recordings. • Following and monitoring ongoing research in audio analysis. • Providing and receiving regular, constructive feedback to and from your peers. • Be passionate about what you are doing.

Requirements : • Last Year of Master Degree or Engineering School in Electrical Engineering, Computer Science, a scientific or related discipline such as Signal Processing and Telecommunications. • Good experience with Matlab and/or Python and common frameworks such as pandas, numpy and scipy. • Understanding of relational databases (SQL). • Experience in machine learning is a plus. • Fluent in English. Dutch, French, Spanish or German are a plus. • You are willing to take responsibility for the development of our products and you take initiative where needed. Working hours from 9h to 17h are not what you are looking for, but you appreciate the flexibility that is offered by the team when needed.

Why SoundTalks ? SoundTalks NV is a young and innovative company based in Leuven ( 20km from Brussels). Founded as a spin-off of 2 departments of KULeuven, SoundTalks develops algorithms for monitoring livestock’s health status. Featured on the list of the top 10 most innovative start-ups in Belgium, SoundTalks commercial successful product, coined pig cough monitor or PCM, is shipped and used by farmers throughout the world for early detection of respiratory health issues in fattening pigs. Utilising cutting-edge sound analysis algorithms, a PCM system continually records and analyses the sound in pig farms to issue early warming alerts to the farmer and/or associated veterinarian when health problems occur. Since the foundation of the company 7 years ago, the company has progressively grown and recently welcomed its 10th employee.

Benefits • Competitive internship compensation • Opportunities to grow along with our young company • Work in an unique atmosphere with motivated and result-driven co-workers • Be part of a high-performance team where your contributions really matter. Solicitation procedure Interested candidates can take contact with Cournut François and send their CV and a brief Cover letter. Cournut François R&D, SoundTalks NV Ambachtenlaan 3001 Leuven Belgium Mail : francois.cournut@soundtalks.com


62. Energy Invariant Real-Time Score Following


Site : Antescofo SAS
Lieu : Antescofo SAS, 38 Rue Meslay, 75003 PARIS
Encadrant : Arshia Cont and Philippe Cuvillier
Dates :18/02/2019 au 16/08/2019
Rémunération :1000 €/mois
Mots-clés : Parcours ATIAM : Traitement du signal

Description

This Masters project inscribes itself in the context of Score Following (or Real-time Audio to Score Alignment), and within the Antescofo project, and related to both its usage context in musical creation and day-to-day music practice through the Metronaut App. In these contexts, a real-time system (i) employs user’s real-time audio signals to infer positions and musical parameters given a music score and regardless of instrument or acoustical situation (Machine Listening), and (ii) uses that information in order to anticipatively synchronize future events with heterogeneous temporal natures (Reactive Synchronous System). This project is concerned with improving the former component, the Machine Listening, in a general context.

The problematics at the core of this project is to liberate the Machine Listening from its direct or indirect dependency on the Input Signal Energy. The current design is based on a one-time Calibration mechanism that prepares the system’s observations to distinguish between musical and non-musical events. Despite its robustness, the absence of the calibration process can cause uncertainties in probabilistic observations that are not handled by the inference mechanism. The goal of this project is thus to propose models that overcome this outcoming.

There are potentially three directions to achieve this : (1) to study and propose alternative observation mechanisms, sufficiently discriminative in the usage context, without altering the main probabilistic model ; (2) propose novel probabilistic decodings that take into account incoherencies in input signal in terms of energy ; or (3) a combination of (1) and (2). During the course of this project, the candidate is expected to understand and get familiar with the Antescofo Core Machine Listening process, study and discover proximity literature for tackling the above challenge both from a signal processing and machine learning perspective, undertake experimental setups respecting the Antescofo workflow and solid evaluation procedure based on studied literature, and provide insights on possible approach to achieve energy invariant score following.

The project will kick start with an immersion in the Antescofo R&D code-base and experimental procedures both in C++ and Python and corresponding literature, followed by the establishment of a thorough bibliography for the first two approaches above, setting up experimental procedures for the validation of the literature on a small-scale setup, and propose solutions for the larger-scale system and validations thereof.

Bibliographie

Arshia Cont. A Coupled Duration-Focused Architecture for Real-Time Music-to-Score Alignment. IEEE Transactions on Pattern Analysis and Machine Intelligence, Institute of Electrical and Electronics Engineers, 2010, 32, pp.974-987.

Philippe Cuvillier. On temporal coherency of probabilistic models for audio-to-score alignment. Sound [cs.SD]. Université Pierre et Marie Curie - Paris VI, 2016. English.

Philippe Cuvillier, Arshia Cont. Coherent Time Modeling of semi-Markov Models with Application to Real-Time Audio-to-Score Alignment. Larsen, Jan and Guelton, Kevin. MLSP 2014 - IEEE International Workshop on Machine Learning for Signal Processing (2014), Sep 2014, Reims, France. IEEE, 2014.


63. Stage d’ingénieur développeur Java : Fiabilisation et optimisation d’un ETL evènementiel et distribué


Lieu : Scaled Risk 8 Rue du Sentier 75002 Paris
Encadrant : Azwaw OUSADOU : Directeur de la R&D
Dates :18/02/2018 au 16/08/2018
Rémunération :1300 € brut/mois + 10,86 € de tickets restaurants par jour travaillé + remboursement de l’intégralité du titre de transport
Mots-clés : Master SAR, autre qu’ATIAM

Description

L’objectif de ce stage de six mois est de fiabiliser et d’améliorer les performances de l’ETL évènementiel et distribué du produit Scaled Risk. Il sera supervisé par Azwaw OUSADOU, directeur de la R&D.

Le stagiaire intégrera l’équipe de recherche et développement de la société Scaled Risk. Il contribuera à l’amélioration d’une Data Management Platform utilisée en milieu financier. Le code est écrit en Java. C’est aussi dans ce langage que le code devra être produit.

Le stagiaire devra se familiariser avec le produit et les principales technologies qu’il utilise. Il s’agit principalement de technologies issues du monde Hadoop : - HDFS : un système de fichier distribué - HBase : une base de données distribuée s’appuyant sur HDFS - Spark et YARN : des frameworks permettant la création, l’exécution et l’ordonnancement de jobs dans un environnement distribué - Lucene : un framework de construction de moteurs de recherche - Netty : une librairie permettant d’écrire des applications réseaux performantes

Le stage se déroulera en plusieurs étapes. Une première phase d’environ deux semaines où la nouvelle recrue installera son environnement de développement (installation de linux sur la machine de développement, installation des outils nécessaire au développement, déploiement d’un cluster Hadoop mono-noeud et déploiement de la solution Scaled Risk sur ce dernier. Cette phase a pour but d’aider le stagiaire à comprendre l’architecture de la solution.

Une seconde phase d’au plus un mois consistera à consolider le harnais de test de l’ETL du produit Scaled Risk. L’objectif est d’aider le stagiaire à se familiariser avec le code qu’il aura à améliorer mais aussi de le sensibiliser aux bonnes pratiques de développement. Les bugs trouvés lors de cette phase seront également corrigés par le stagiaire.

La dernière phase du stage (au moins 4 mois et demi) consistera à la fiabilisation et l’optimisation de l’ETL à proprement dit. Dans un premier temps, le stagiaire sera chargé de réaliser des améliorations sur ce composant déjà identifiées par l’équipe de R&D (distribution de certains traitements, retrait de verrous, correction du comportement lors de la création et/ou la suppression de plusieurs jobs de transformation en parallèle).

Une fois ces améliorations effectuées, le stagiaire devra : - Proposer des améliorations sur ce composant - Proposer des protocoles permettant de vérifier le gain dans le cas d’optimisation - Une suite de tests vérifiant le bon fonctionnement du produit dans le cas d’ajouts de nouvelles fonctionnalités ou de corrections sur des fonctionnalités existante - D’implémenter ces améliorations

Le but de l’ensemble de ces étapes étant d’augmenter progressivement le degré de responsabilité et d’autonomie du stagiaire.

Si le travail effectué est satisfaisant et que les règles de la société sont respectées, une proposition d’embauche en CDI sera faite à l’issue du stage.


64. Architecte Solution Junior


Site : http://nodata.co/view/careers
Lieu : Paris 16eme
Encadrant : Thomas Meyer
Dates :du 01/01/2019 au 31/12/2019
Mots-clés : Master SAR, autre qu’ATIAM

Description

Your mission :

As a Junior Solution Architect you are working in the Customer Department. Your role is to take care of NODATA customers engagement. You are focused on customer commitment and customer satisfaction. Some of your activities : ◆You design tailored solutions for our customers relying on your strong knowledge of NODATA platform features and assets. ◆You will learn to design and develop NODATA integration projects for our customers. ◆You interact with Product team members to bring customer feedback, suggest improvements and help to solve customer issues. ◆As a connection to our customers, you will detect and drive business opportunities.

Your skills :

You have a data consultant or developper background (1+ years) or you are preparing a computer sciences engineer/ master degree and your are looking for an internship / a work-study training contract. You know how valuable data is and you care about achieving your commitments and customer satisfaction is important to you. ◆You have good communication skills and enjoy working in a team. ◆You have a data technical background (SQL, noSQL, …) and a broad knowledge of data solutions. ◆Computer programming skills (Shell, HTML/CSS, JavaScript, Java…) is an asset. ◆Any experience in data reporting or feeding data strategy projects can help. ◆You’re spoken English is fluent. ◆You are autonomous, proactive and an innovative problem solver. ◆You know how to organise your work and you can be agile. ◆You have a customer-centric approach and a good understanding of business requirements.


65. Intitulé : Stagiaire Data Analyst


Lieu : Devoteam , 1 Rue Galvani, 91300 Massy
Encadrant : Rim Romdhane
Dates :11/02/2019 au 11/08/2019
Rémunération :1500
Mots-clés : Master SAR, autre qu’ATIAM

Description

Mettre en oeuvre l’ensemble des techniques et procédés pour le déploiement d’un environnement BIGDATA(HadoopHDFS,Hive,Spark) permettant de collecter,de nettoyer, d’organiser, de synthétiser et de modéliser efficacement les données ●Identification, collecte, structuration et enrichissement de données


66. Investigating statistical models of music perception with artificial neural networks and brain data


Site : Laboratoire des systemes perceptifs, equipe audition
Lieu : Ecole Normale Superieure, LSP, 29 rue d'Ulm
Encadrant : Shihab Shamma, Giovanni Di Liberto
Dates :du 18/02/2019 au 31/07/2019
Rémunération :554.40 Net/Mois
Mots-clés : Parcours ATIAM : Informatique musicale

Description

In order to process music, humans learn its melodic structure and make continuous predictions of upcoming events. Recent work proposed that a statistical model based on hidden markov chains approximates this brain process (Pearce, 2005 ; Pearce, 2018). The internship aims to investigate whether state-of-the-art models for music generation, such as recurrent neural networks (Hadjeres, 2017), can provide us with a better description of this brain mechanism. In the first instance, we will derive models uniquely from music data and we will evaluate their physiological validity by using neural data recorded with electroencephalography, which was shown to reflect the processing of the statistical structures of auditory stimuli (Broderick et al., 2018). Next, neural data will be used to fine-tune the parameters the neural networks directly in a multimodal fashion, in order to derive an estimate that optimally fits the brain responses to music.

Bibliographie

M. Pearce, “The Construction and Evaluation of Statistical Models of Melodic Structure in Music Perception and Composition,” PhD thesis, School of Informatics, City University, London, 2005.

M. Pearce, “Statistical learning and probabilistic prediction in music cognition : mechanisms of stylistic enculturation,” Annals of the New York Academy of Sciences, 2018.

Gaëtan Hadjeres, François Pachet, Frank Nielsen, "DeepBach : a Steerable Model for Bach Chorales Generation", arXiv, 2017

M Broderick, AJ Anderson, GM Di Liberto, MJ Crosse, EC Lalor, "Electrophysiological correlates of semantic dissimilarity reflect the comprehension of natural, narrative speech", Current Biology 28 (5), 803-809.


67. Réductions d’ordre de Systèmes Hamiltoniens à Ports par la méthodes des éléments finis : Expressions des conditions aux limites et simulation à passivité garantie de systèmes dynamiques non linéaires.Nouveau stage


Site : Equipe S3AM
Lieu : Equipe S3AM (Systèmes et Signaux Sonores : Audio/Acoustique, instruMents), Ircam-CNRS-UPMC, UMR 9912. 1, place Igor Stravinsky 75004 Paris
Encadrant : Antoine Falaize (LASIE), Robert Piéchaud (STMS) et David Roze (STMS)
Dates :du 18/02/2019 au 31/07/2019
Rémunération :environ 550 euros/mois + tickets restaurant et 50% RATP
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

* Contexte :

Le logiciel de synthèse sonore par modèles physiques Modalys (développé dans l’équipe S3AM) permet, dans un contexte modal, la création d’instruments virtuels par interconnexion de résonateurs décrits de manière analytique ou par la méthode des éléments finis. Les travaux de recherche en cours dans l’équipe ont pour objectif la synthèse sonore de résonateurs non linéaires. Les Systèmes Hamiltoniens à Ports (SHP) sont un formalisme adapté à l’écriture et à la simulation de certains problèmes non linéaires. En effet, associés à des méthodes numériques qui préservent le bilan de puissance, la passivité et donc la stabilité des simulations peut être garantie.

* Objectifs :

A la suite des travaux de Mathis Raibaud [Raibaud2018] sur la formulation en SHP d’un modèle de corde non linéaire par la méthode des éléments finis, des problématiques sont apparues sur la définition de conditions aux limites et l’élaboration d’une méthode numérique adaptée. Ce stage vise à poursuivre ces travaux, avec pour objectif de généraliser, dans la méthode des éléments finis, l’expression des conditions aux limites en se basant par exemple sur les multiplicateurs de Lagrange, et leur adaptation au formalisme des SHP. D’autre part, une généralisation de l’écriture déjà réalisée pour un modèle de corde et des éléments à une dimension, sera effectuée aux cas de géométries bi- et tri-dimensionnelles (cas des plaques, coques et géométries quelconques). Des méthodes de résolution numérique préservant le bilan de puissance devront être étudiées et adaptées afin d’être implémentées dans le moteur de synthèse. Enfin, si les travaux avancent bien, la définition d’une interaction entre deux SHP permettra d’envisager la simulation d’interactions entre plusieurs résonateurs.

* Travail demandé : 1) Ecriture dans le formalisme des SHP des conditions aux limites générales d’un modèle physique décrit par la méthode des éléments finis.

2) Adaptation d’une méthode numérique préservant le bilan de puissance et réalisation d’un démonstrateur autonome (e.g. Matlab ou Python).

3) Extension des résultats à des géométries en dimension supérieure (2 ou 3) et à des modèles analytiques (modèles de plaques et de coques)

4) Prise en main du code de Modalys, et intégration des objets et méthodes numériques relatifs au formalisme des SHP.

* Résultats attendus : Expression générale des conditions aux limites d’un modèle en éléments finis, compatible avec le formalisme des SHP. Méthode numérique adaptée aux formulations implicites obtenues dans le cas de systèmes non linéaires. Propositions des évolutions nécessaires au code de Modalys pour une simulation de différents résonateurs non linéaires par la méthode des éléments finis. En fonction de l’avancement des travaux, une première étude du problème inverse pour les SHP pourra être réalisée.

* Compétences requises :

- Vibration et dynamique des structures (modèles continus, formalisme modal)

- Programmation (Matlab, Python ou C++).

- Intérêt pour la modélisation et la simulation de systèmes (multi-)physiques (Systèmes Hamiltoniens à Ports, méthodes numériques, etc.).

* Possibilité de poursuite en thèse :

Le sujet soulève de nombreux problèmes d’intérêt théorique et pratique qui font partie des thèmes de recherche et compétences des laboratoires STMS et LASIE. Aussi sera-t-il tout à fait envisageable de poursuivre ce sujet dans le cadre d’une thèse (aucun financement n’est assuré à ce jour).

Bibliographie

K.-J. Bathe. Finite element procedures in engineering analysis. Prentice-Hall, 1982.

F. Cardoso-Ribeiro, D. Matignon, L. Lefèvre. A structure-preserving Partitioned Finite Element Method for the 2D wave equation. 6th IFAC Workshop on Lagrangian and Hamiltonian Methods for Nonlinear Control, May 2018, Valparaíso, Chile.

A. Falaize, T. Hélie. Passive simulation of the nonlinear port-Hamiltonian modeling of a Rhodes Piano. Journal of Sound and Vibration, Elsevier, 2017, 390, pp.289-309.

A. Falaize, T. Hélie. Passive Guaranteed Simulation of Analog Audio Circuits : A Port-Hamiltonian Approach. Appl. Sci. 6(10), 273 (26 pages), 2016.

A. Falaize. Modélisation, simulation, génération de code et correction de systèmes multi-physiques audios : approche par réseau de composants et formulation hamiltonienne à ports. Thèse ED EDITE, UPMC (labo. STMS). 2016.

T. Hélie, A. Falaize, N. Lopes. Systèmes Hamiltoniens à Ports avec approche par composants pour la simulation à passivité garantie de problèmes conservatifs et dissipatifs. Colloque National en Calcul des Structures, May 2015, Giens, France. 12, 2015.

T. Hélie, D. Roze. Corde non linéaire amortie : formulation hamiltonienne à ports, réduction d’ordre exacte et simulation à passivité garantie.. 13ème Congrès Français d’Acoustique, Apr 2016, Le Mans, France. Actes du 13e Congrès Français d’Acoustique joint avec le colloque VIbrations, SHocks and NOise, 2016.

M. Raibaud. Modélisation et simulation de systèmes discrétisés par la méthode des éléments finis dans le formalisme des Systèmes Hamiltoniens à Ports : application à la synthèse sonore. Rapport de stage M2 ATIAM, Sorbonne Université. 2018.

David Roze, Thomas Hélie. Simulation passive d’un modèle réduit exact de plaque de Berger en grandes déformations. 14ème Congrès Français d’Acoustique, Apr 2018, Le Havre, France.

R. L. Taylor O. C. Zienkiewicz. The finite element method, volume 2. McGraw-Hill, 1991.


68. Algorithmes de diffusion causale dans les systèmes répartis dynamique


Site : Trac-Algorithmes de diffusion causale dans les systèmes répartis dynamique
Lieu : Equipe DELYS LIP6
Encadrant : Luciana Arantes, Pierre Sens (Prenom.Nom@lip6.fr)
Dates :du 01/03/2019 au 31/08/2019
Rémunération :580 euros par mois

Description

La diffusion causale [1] est un élément essentiel dans les systèmes répartis. Elle est à la base de nombreux mécanismes pour maintenir la cohérence entre des copies répliquées [2], disséminer une information cohérente dans les réseaux sociaux [3] ou encore pour réaliser des systèmes de publications/abonnements [4]. Il s’agit alors de propager une information à un ensemble de nœuds tout en respectant les contraintes de causalité entre les informations.

La diffusion causale a été largement étudiée dans des systèmes répartis statiques [1]. Cependant, la dynamicité est une propriété clé des nouvelles infrastructures distribuées : dans l’internet des objets, les nœuds physiques peuvent arriver et partir à tout moment, être sujet à des fautes ou encore se déplacer.

Ce stage vise à étudier la diffusion causale dans le cadre de ces systèmes où la topologie est fortement dynamique et les ressources des nœuds limitées. La plupart des algorithmes existant repose sur des vecteurs d’horloges de Lamport de taille N [5] (N étant les nombre de processus du système) pour capturer les informations de causalité. Ces vecteurs, éventuellement compressés, sont transportés dans les messages. De tels implémentations sont coûteuses, ne passent pas à l’échelle et ne permettent pas de gérer la dynamicité. D’autres implémentations réduisent les informations transmises mais reposent sur l’hypothèses fortes de canaux de communications FIFO [6].

L’objectif de ce stage est de proposer et implémenter un nouvel algorithme de diffusion causal prenant en compte les caractéristiques d’un réseau de capteurs. Cet algorithme devra être ensuite déployé sur un ensemble de raspberry pi et testé dans l’environnement de simulation OMNet++.

Bibliographie

[1] Vassos Hadzilacos and Sam Toueg. A modular approach to fault-tolerant broadcasts and related problems. Technical report, Ithaca, NY, USA, 1994

[2] Manuel Bravo, Lu´ ıs Rodrigues, and Peter Van Roy. Saturn : A distributed metadata service for causal consistency. In Proceedings of the Twelfth European Conference on Computer Systems, EuroSys ’17, pages 111–126, New York, NY, USA, 2017. ACM.

[3] Dhruba Borthakur. Petabyte scale databases and storage systems at facebook. In Proceedings of the 2013ACM SIGMOD International Conference on Management of Data, SIGMOD ’13, pages 1267–1268, New York, NY, USA, 2013. ACM.

[4] João Paulo de Araujo, Luciana Arantes, Elias Procópio Duarte Jr., Luiz A. Rodrigues, Pierre Sens. VCube-PS : A causal broadcast topic-based publish/subscribe system. J. Parallel Distrib. Comput. 125 : 18-30 (2019)

[5] Friedemann Mattern. Virtual time and global states of distributed systems. Parallel and Distributed Algorithms.

[6] Brice Nédelec, Pascal Molli, Achour Mostéfaoui. Breaking the Scalability Barrier of Causal Broadcast for Large and Dynamic Systems. SRDS 2018 : 51-601(23):215–226, 1989


69. STAGIAIRE STACK CLIENT VOIP (H/F)


Lieu : STREAMWIDE - 84 rue d'Hauteville - 75010 PARIS
Encadrant : Pierre BODILIS
Dates :18/02/2019 au 17/08/2019
Rémunération :1000€/ mois

Description

Intitulé du stage :

Dans le cadre du module Voix et Video sur IP de notre application pour Android, nous souhaitons optimiser l’usage de ressources tant CPU (batterie) que réseau (bande passante) par l’application pour des streams vidéos. Cela implique l’usage de périphériques vidéo externes au mobile, de type UVC (USB Video Class), et de leur encodeur éventuel, ainsi que des encodeurs hardware internes au mobile. Le paramétrage de ces encodeurs doit répondre aux modifications de la qualité du réseau (bandwidth, framerate, ...). Le sujet du stage consiste à utiliser au mieux le matériel mis en oeuvre par notre solution.

Le contexte :

StreamWIDE développe un client de messagerie instantané sous Android et iOS, destiné à un environnement professionnel, parmi lesquels se trouvent les équipes de gestion de crise (Police, pompier, ambulance, ...). Celles-ci utilisent du matériel spécifique (drone, camera externe, ...) que nous souhaitons pouvoir interfacer à notre solution, sur Android dans un premier temps, avec des mobiles disposant de la feature USB Host. Par ailleurs, ces équipes travaillant dans des conditions difficiles, elles ne peuvent pas charger leurs mobiles à leur guise. Il nous faut donc utiliser les codecs hardware qui seraient intégrés dans ces périphériques externes, ou, à défaut, utiliser celui disponible dans le téléphone lui même. Enfin, ces codecs sont configurables à chaud, afin de s’adapter aux conditions du réseau. Il faudra donc mettre en oeuvre des techniques d’optimisation de la bande passante disponible.

Dans cet environnement, la VoIP est assurée, pour la partie mobile, par une bibliothèque écrite en C, portée ensuite pour Android et iOS. Un premier prototype a été écrit pour intégrer le support des périphériques UVC à la bibliothèque à l’aide d’autres bibliothèques open source existantes : libusb et libuvc. Le but du stage est donc d’explorer et développer les possibilités de stabilisation de celles ci en vue d’une industrialisation. Dans un premier temps, il sera demandé de faire un état de l’art (protocol UVC, autres bibliothèques existantes, ...), puis, avec la/le candidat, déterminer la solution à entreprendre. Il est envisageable de proposer des contributions aux mainteneurs des bibliothèques utilisées, ou de créer un fork. Puis, étudier les possibilitées d’utiliser l’encodeur éventuellement disponible dans le périphérique, et, à défaut, d’utiliser ceux du téléphone.


70. Synchronisation Temporelle et Allocation de Fréquences dans les Réseaux à Radio Cognitive


Site : Delys
Lieu : LIP6 - Groupes Delys et Phare
Encadrant : Luciana Arantes (Delys), Pierre Sens (Delys) et Thi-Mai-Trang Nguyen (Phare)
Dates :01/03/2019 au 31/07/2019
Rémunération :(554.4 euros +35 euros de transport) par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Description du sujet  

La synchronisation temporelle joue un rôle très important dans les réseaux. De nombreuses applications comme les réseaux de capteurs pour la surveillance d’environnement, les systèmes d’alerte, les maisons intelligentes et les véhicules intelligents ont besoin de la synchronisation temporelle entre les équipements. Les statistiques montrent que 75,44 milliards objets seront connectés dans le monde entier en 2025 [Sta2025]. Ces réseaux Internet des Objets (IoT) ultra-denses demanderont de nouvelles technologies sans-fil qui utilisent mieux les fréquences radio comme la radio cognitive [Kha2017].

Les réseaux à radio cognitive est une technologie permettant d’optimiser l’utilisation du spectre radio en cherchant les fréquences disponibles et de les utiliser dynamiquement. Bien que la radio cognitive optimise l’utilisation du spectre radio, elle pose de nombreux challenges aux protocoles et applications réseaux car les fréquences utilisées dans les canaux de communications peuvent changer constamment. Sans exception, les protocoles de synchronisation temporelle sont aussi affectés par la dynamique des fréquences dans les réseaux à radio cognitive. Les nœuds doivent se mettre d’accord sur le canal de synchronisation avant d’échanger les messages de synchronisation temporelle.

Parmi les protocoles de synchronisation temporelle pour les réseaux à radio cognitive, BSynC [Lip2015] est le protocole le plus abouti. Les auteurs proposent un algorithme bio-inspiré qui imite la synchronisation entre les lucioles et montrent que ce protocole offre un temps de convergence raisonnable. Cependant, BSync ne propose pas de méthode spécifique pour choisir le canal de synchronisation temporelle entre deux nœuds à radio cognitive. Ainsi, si deux paires de communications choisissent au hasard la même fréquence pour échanger les messages de synchronisation temporelle, cela va créer les interférences et réduire les performances du protocole de synchronisation temporelle. De plus, BSync, comme les autres protocoles dans la littérature, suppose que les nœuds utilisent un canal de contrôle commun.

Objectif

L’objectif de ce stage est de proposer un nouveau protocole de synchronisation temporelle avec la sélection de fréquence qui est complètement distribué sans canal de contrôle commun. Ce nouveau protocole devrait améliorer la convergence et la consommation d’énergie du protocole BSynC en environnement incertain. Plus spécifiquement, les tâches détaillées sont les suivantes :

  • Une étude bibliographique (i) des protocoles de synchronisation temporelle, notamment le protocole BSynC et (ii) des algorithmes de coloriage pour la sélection de fréquence.
  • Définir un algorithme de détection de canaux disponible et appliquer un algorithme de coloriage pour minimiser les interférences durant la synchronisation temporelle, sans utiliser un canal de contrôle commun.
  • Définir un algorithme de synchronisation temporelle améliorant la convergence du protocole BSynC et réduisant le nombre de messages échangés.
  • Implémenter l’algorithme proposé dans un simulateur (NS3 ou OMNeT++) pour évaluer les performances et les comparer avec le protocole BSynC.

Bibliographie

[Ana2012] S. Anand, S. Sengupta and R. Chandramouli, “MAximum SPECTrum packing : a distributed opportunistic channel acquisition mechanism in dynamic spectrum access networks”, IET Commun. Vol. 6, Issue 8, pp.872–882, July 2012.

[Els2002] J. Elson, L. Girod and D. Estrin, “Fine-Grained Network Time Synchronization using Reference Broadcasts”, ACM SIGOPS Operating Systems Review, Vol. 36, Issue SI, Winter 2002.

[Gan2003] S. Ganeriwal, R. Kumar, M. B. Srivastava, “Timing –sync protocol for sensor networks”, ACM 1st International conference on Embedded networked sensor systems (SenSys), November 2003. [Kha2017] A. A. Khan, M. H. Rehmani and A. Rachedi, “Cognitive-Radio-based Internet-of-Things : Applications, Architectures, Spectrum related functionalities, and future research directions”, IEEE Wireless Communications, June 2017.

[Lip2015] N. Lipa, E. Mannes, A. Santos and M. Nogueira, « Firefly-inspired and robust time synchronization for cognitive radio ad hoc networks”, Computer Communications, Elsevier, Vol. 66, July 2015.

[Man2018] S. K. Mani, R. Durairajan, P. Barford and J. Sommers, “An architecture for IoT Clock Synchronization”, ACM 8th International Conference on the Internet of Things (IoT), Santa Barbara, CA, USA, October 2018.

[Mil2010] D. Mills, J. Martin, J. Burbank and W. Kasch, “Network Time Protocol Version 4 : Protocol and Algorithms Specification”, IETF RFC 5905, June 2010.

[Nie2009] J. Nieminen, R. Jäntti, and L. Qian, « Time Synchronization of Cognitive Radio Networks”, IEEE Global Telecommunications Conference

(GLOBECOM), Honolulu, Hawaii, USA, December 2009.

[Sha2012] S. Shaw, Y. Ghamri-Doudane, A. Santos and M. Nogueira, “A reliable and distributed time synchronization for coginitive radio networks”, IEEE 4th Global Information Infrastructure and Networking Symposium (GIIS), Choroni, Venezuela, December 2012.

[Sta2018] Statista, Internet des objets (IoT) : nombre d’appareils connectés dans le monde de 2015 à 2025 (en milliards), https://fr.statista.com/statistique..., consulté le 02 novembre 2018.

[Tab2016] Z. Tabakovic and M. Grgic, “Cognitive radio frequency assignment with interference weighting and categorization”, EURASIP Journal on Wireless Communications and Networking, Vol. 45, December 2016.

[Tus2016] B. Tushir, S. K. Dhurandher, I. Woungang, M. S. Obaidat and V. Teotia, "Graph colouring technique for efficient channel allocation in cognitive radio networks", IEEE International Conference on Communications (ICC), Kuala Lumpur, Malaysia, May 2016.


SujetStageDelysPhare-2019

71. Synchronisation-free mobile gaming


Site : Synchronisation-free mobile gaming
Lieu : Sorbonne Université, LIP6 Delys Team
Encadrant : Ilyas Toumlilt, Dimitrios Vasilas and Marc Shapiro
Dates :6 mois 2019
Rémunération :Standard LIP6
Mots-clés : Master SAR, autre qu’ATIAM

Description

Background In online multi-player games the inherent challenges of mobile and edge computing are worsened by the requirements of real-time users’ interactions. Thus, developers of such applications face difficult design choices on data storage and distribution that ultimately affect the gaming experience : adopting a weak consistency model across replicas and mobile terminals will expose anomalies to the users, whereas a strong consistency model will increase latency, which may be unacceptable.

To address these issues, we propose to use Antidote and EdgeAnt. Antidote is a data store that provides an adequate consistency semantics with optimal performance by minimizing the need for synchronization between storage replicas. It offers a causally consistent transactional API and a toolkit of convergent data types that accommodates the typical needs of distributed applications. EdgeAnt extends Antidote with a consistent, mutable cache on the Edge device, with the same API and consistency guarantees. With support for client migration, P2P group communication and load placement at the edge or at the datacenter.

Research objectives and methods The aim of this project is to design and develop a simple yet fully-functional gaming application to evaluate the pros and cons of the synchronization-free approach. Besides being an interesting pilot study for online multi-player gaming, this application will allow us to perform a thorough experimental evaluation of Antidote.

We break down the project into the following steps :

Brief study of the state of the art. Developing a simple, but fully functional, gaming application (e.g. asynchronous command line chess) with the goal of familiarising with the design, deployment and APIs of Antidote. Adaptating an existing open source multi-player gaming application (e.g. 0.AD) that to use the synchronization-free approach ; functional and scalability testing. How to apply The intern must :

Be enrolled in Computer Science / Informatics or a related field. Have an excellent academic record. Be strongly interested in, and have good knowledge of, distributed systems and/or distributed games. Be motivated by experimental research. The internship is funded, and will take place in the Delys group, at Laboratoire d’Informatique de Paris-6 (LIP6), in Paris. It will be advised by Ilyas Toumlilt, Dimitrios Vasilas and Dr. Marc Shapiro. A successful intern will be invited to apply for a PhD.

To apply, contact Ilyas Toumlilt and Dimitrios Vasilas , with the following information :

A resume or Curriculum Vitæ. A list of courses and grades of the last two years of study (an informal transcript is OK). Names and contact details of two references (people who can recommend you), whom we will contact directly.

Bibliographie

[1] AntidoteDB. https://www.antidotedb.eu/.

[2] D. Terry. “Replicated Data Consistency Explained Through Baseball” Communications of the ACM Vol. 56 N. 12, 2013. https://cacm.acm.org/magazines/2013...

[3] M. Shapiro, N. Preguiça, C. Baquero, and M. Zawirski. Conflict-free replicated data types. In Int. Symp. on Stabilization, Safety, and Security of Distributed Systems (SSS), 2011. http://www.springerlink.com/content....

[4] D. D. Akkoorath, A. Z. Tomsic, M. Bravo, Z. Li, T. Crain, A. Bieniusa, N. Preguiça, and M. Shapiro. Cure : Strong semantics meets high availability and low latency. In Int. Conf. on Distributed Comp. Sys. (ICDCS), 2016. http://doi.ieeecomputersociety.org/....

[5] A. van der Linde, P. Fouto, J. Leitão, N. Preguiça, S. Castiñeira and A. Bieniusa. Legion : Enriching Internet Services with Peer-to-Peer Interactions, Proceedings of the 26th International Conference on World Wide Web, WWW 2017, Perth, Australia, April 3-7, 2017. http://dx.doi.org/10.1145/3038912.3...


72. Synthèse sonore par modèles physiques dans le cadre d’une architecture d’électronique embarquée.


Lieu : Equipe S3AM (Systèmes et Signaux Sonores : Audio/Acoustique, instruMents), Ircam-CNRS-UPMC, UMR 9912. 1, place Igor Stravinsky 75004 Paris et Squarp Instruments, 12 rue Marceau, 93100 Montreuil
Encadrant : Tom Hurlin (Squarp Instruments, Montreuil) et David Roze (CR CNRS STMS, Paris).
Dates :du 18/02/2019 au 31/07/2019
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

* Contexte :

La société Squarp dans le cadre de ses activités de Recherche & Développement souhaite développer un module électronique « embarqué » destiné à la synthèse sonore. L’équipe S3AM de l’UMR STMS mène dans le cadre de ses activités de recherche des travaux sur la synthèse sonore par modèles physiques dans le formalisme des Systèmes Hamiltoniens à Ports (SHP). Ce formalisme est adapté à l’écriture et à la simulation des problèmes dynamiques, y compris non linéaires. Il assure la passivité du modèle et peut être associé à des méthodes numériques qui préservent le bilan de puissance en temps discret, permettant de garantir la stabilité des simulations.

* Objectifs :

Ce stage vise à développer en collaboration entre l’équipe S3AM du laboratoire STMS et la société Squarp un prototype de module embarqué de synthèse sonore. Le stagiaire étudiera d’une part, les différentes possibilités d’architecture matérielle pour réaliser un module de synthèse en temps-réel comprenant entre autres, le choix de l’excitation et du point d’écoute, ainsi que la variation des paramètres physiques. D’autre part, les algorithmes de synthèse de modèles analytiques (corde, plaque, tube, linéaire ou non) seront développés et adaptés aux choix technologiques du module. Cette synthèse sera réalisée dans le formalisme des Systèmes Hamiltoniens à Ports, grâce à des méthodes numériques préservant la passivité définie par le modèle. Des interactions seront définies et implémentées afin de créer des systèmes sonores en connectant plusieurs résonateurs.

* Travail demandé : 1) Etude des possibilités de synthèse sonore en temps-réel de différentes architectures matérielles (e.g. linux, FPGA, STM32, Shark, etc.).

2) Adaptation des méthodes numériques et des algorithmes de synthèse d’un résonateur à l’architecture sélectionnée dans le formalisme des SHP.

3) Définition d’un contrôle aux frontières sur un résonateur dans le formalisme des SHP, puis plus généralement, définition et implémentation des interactions entre différents résonateurs.

4) Définition de conditions aux limites générales afin de permettre une extension au cas de géométries quelconques dans le cadre de la méthode des éléments finis.

* Résultats attendus : Implémentation d’algorithme permettant de réaliser de la synthèse sonore en temps-réel sur un prototype. Ce prototype permettra de choisir des résonateurs, leurs points d’excitation, d’écoute, et de les coupler grâce à différentes interactions. En fonction des possibilités du matériel et des avancées du travail théorique, le prototype comportera si possible des modèles de systèmes non linéaires et des modèles décrits par la méthode des éléments finis.

* Compétences requises :

- Programmation scientifique (Matlab, Python ou C++) et en électronique embarquée (FPGA, DSP, etc.)

- Vibration et dynamique des structures (modèles continus, formalisme modal)

- Intérêt pour la modélisation et la simulation de systèmes (multi-)physiques (Systèmes Hamiltoniens à Ports, méthodes numériques, etc.).

* Possibilité de poursuite en thèse :

Le sujet soulève de nombreux problèmes d’intérêt théorique et pratique qui font partie des thèmes de recherche et compétences du laboratoire STMS ainsi que de la société Squarp. Aussi sera-t-il tout à fait envisageable de poursuivre ce sujet en thèse de doctorat dans un cadre à définir.

Bibliographie

K.-J. Bathe. Finite element procedures in engineering analysis. Prentice-Hall, 1982.

F. Cardoso-Ribeiro, D. Matignon, L. Lefèvre. A structure-preserving Partitioned Finite Element Method for the 2D wave equation. 6th IFAC Workshop on Lagrangian and Hamiltonian Methods for Nonlinear Control, May 2018, Valparaíso, Chile.

A. Falaize, T. Hélie. Passive simulation of the nonlinear port-Hamiltonian modeling of a Rhodes Piano. Journal of Sound and Vibration, Elsevier, 2017, 390, pp.289-309.

A. Falaize, T. Hélie. Passive Guaranteed Simulation of Analog Audio Circuits : A Port-Hamiltonian Approach. Appl. Sci. 6(10), 273 (26 pages), 2016.

A. Falaize. Modélisation, simulation, génération de code et correction de systèmes multi-physiques audios : approche par réseau de composants et formulation hamiltonienne à ports. Thèse ED EDITE, UPMC (labo. STMS). 2016.

T. Hélie, A. Falaize, N. Lopes. Systèmes Hamiltoniens à Ports avec approche par composants pour la simulation à passivité garantie de problèmes conservatifs et dissipatifs. Colloque National en Calcul des Structures, May 2015, Giens, France. 12, 2015.

T. Hélie, D. Roze. Corde non linéaire amortie : formulation hamiltonienne à ports, réduction d’ordre exacte et simulation à passivité garantie. 13ème Congrès Français d’Acoustique, Apr 2016, Le Mans, France. Actes du 13e Congrès Français d’Acoustique joint avec le colloque VIbrations, SHocks and NOise, 2016.

M. Raibaud. Modélisation et simulation de systèmes discrétisés par la méthode des éléments finis dans le formalisme des Systèmes Hamiltoniens à Ports : application à la synthèse sonore. Rapport de stage M2 ATIAM, Sorbonne Université. 2018.

David Roze, Thomas Hélie. Simulation passive d’un modèle réduit exact de plaque de Berger en grandes déformations. 14ème Congrès Français d’Acoustique, Apr 2018, Le Havre, France.

R. L. Taylor O. C. Zienkiewicz. The finite element method, volume 2. McGraw-Hill, 1991.


73. Consultant Ingénieur Intégration Java PaaS @Oracle France


Site : Trac-Consultant Ingénieur Intégration Java PaaS @Oracle France
Lieu : Oracle France - 15 Boulevard Charles de Gaulle - 92715 - Colombes
Encadrant : Mme Jane Turnbull - Practice Manager Oracle Technology France
Dates :18/02/2019 AU 18/08/2019
Rémunération :1300
Mots-clés : Master SAR, autre qu’ATIAM

Description

Final Internship – Consultant Ingénieur Intégration Java PaaS - @Oracle France Oracle is looking for dynamic, high performing interns who thrive on the challenge of working in a fast moving Cloud Environment and who have a strong interest in Consulting and how it can help our customers’ businesses succeed. We are the company who is redefining the way IT is understood and used today. We provide simplified Cloud solutions to our customers with a unique and complete set of Applications and Platform services. Oracle Consulting is our global Line of Business (LOB) delivering implementation services to our customers on all our Portfolio of Applications and Platforms Mission for the candidate during the internship At first, you will be trained (in-class or e-training or shadowing) on processes and/or products. The goal is to begin asap working with one or two senior consultants on projects and step by step acquire autonomy on projects.

Your mission as a junior consultant will be : • To integrate a project team implementing innovative Oracle solutions with our customers. • Integration/Coding in the following domains : PaaS with HCM, CX, ERP (Oracle SaaS Application) • Contributing to Project deliverable documentation (Design/Test/Architecture documents) and/or Project management deliverables (Meeting minutes, steering committee documents etc.) Candidate’s profile • Engineering School with some of the following skills : SQL, PL/SQL, Java, SOA, Webservices, Python, security concepts • Looking for a final internship with permanent role possibility after the internship • High level of energy, drive, enthusiasm, commitment, self-belief and achievement-orientation • Interest in technology and strong communication skills. Attention to detail. • Knowledge of Oracle products or previous experience in the IT industry would be useful though not essential • Fluent French/English (850/990 TOEIC)


74. Stage Big Data


Site : EVEASOFT
Lieu : La Défense
Encadrant : Guilhem LEBLON
Dates :du 25/02/2019 au 23/08/2019
Mots-clés : Master SAR, autre qu’ATIAM

Description

Une plateforme analytics basée essentiellement sur une solution big data Hadoop est en cours de construction autant au niveau de l’infrastructure que des briques applicatives exploitées par nos data scientists. En parallèle, nous souhaitons enrichir cette plateforme afin de pouvoir l’exploiter dans le cadre de certaines expérimentations (nouveaux services à destination des marchés B2C et B2B) que nous développons.

L’objet du stage est donc de développer les briques applicatives qui seront utilisées dans le cadre des expérimentations en collaboration avec les équipes internes de développement et plus globalement de participer à la construction de la plateforme analytics. Ce stage devra vous permettre d’acquérir une expérience significative sur un environnement big data, autant sur des activités de développement, d’infrastructure et d’architecture.


75. Gatling – IA Diagnostic


Lieu : Takima - 152-160 Avenue Aristide Briand, 92220 Bagneux
Encadrant : Anthony Chiche
Dates :4/03/2019
Rémunération :1200 euros brut par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Le stage consiste en un projet de R&D de type Deep Tech.

Il consiste exactement à :

- sur la base de tests de performances joués avec Gatling (Open-Source ou Frontline) :

Partie aide au consulting et à la détection de goulets d’étranglements :

1 - recueillir les métriques des divers composants testés (applications, Bases de données Sql ou No/Sql) comme : + la consommation RAM, CPU, Load Average pour le système + l’état de la Heap avec par exemple des threads dumps s’il s’agit d’une application Java + l’état de la base de données par exemple les hits sur un index ou les plan d’exécution s’il s’agit d’une base de données SQL 2 - Corréler ses métriques avec les données de Gatling (temps de réponses, latence, ...) 3 - Déterminer les problèmes de performances et exactement les situer pour correction, problème d’I/O, goulets d’étranglement, problèmes de concurrence d’accès

Partie amélioration continue du soft :

1 - les résultats des tests vont donner des informations permettant d’entrainer une IA reposant sur un triptyque : Code / Système observé / Configuration de l’environnement 2 - cette IA va progressivement permettre de lier le code au facteur performance 3 - Ce lien permettra de faire une détection fine du souci dans le code si la performance évolue négativement

Partie émulation du système observé :

1 - les résultats des tests vont donner des informations permettant d’entrainer une IA reposant sur un triptyque : Code / Système observé / Configuration de l’environnement 2 - cette IA va progressivement à l’aide d’information sur la topologie du SI pouvoir se substituer aux applications pour jouer les tests sans le SI Cela va permettre : a - fort de cette émulation du comportement du système observé permettre à l’utilisateur d’anticiper à la hausse ou à la baisse ses performances applicatives sur une modification du code b - jouer des tests dans le sytème et son banc de tests pour des raisons : + d’économies + de difficultés à jouer des tests de performances sur un environnement iso-production dans une entreprise avec une maturité opérationnelle défaillante

Le stagiaire sera intégré à une équipe de R&D pilotée par le CTO dans le cadre de ce projet stratégique pour :

- Faire des PoCs
- Tester et valider les solutions techniques envisagées
- coder sur la solution cible qui sera utilisée par nos consultants

Concrètement, le projet va devoir s’interfacer avec :

- des APM comme APPDynamics, Dynatrace, New Relic
- les outils de monitoring comme collectd
- des event stream comme Apache Kafka

Essayer d’émuler le comportement de :

- serveurs d’application, serveurs web, conteneurs de servlets
- des bases de donnés Sql et NoSQl
- des outils d’infrastructure comme les firewall, les load balancers

Pouvoir analyser du code :

- Java, Kotlin
- Javascript

Dans ses travaux, le stagiaire se familiarisera avec des concepts de capacity planning, de modélisation de performance comme ceux de Neil J Gunther.

Pour la partie IA, les choix ne sont pas encore arrêtés.


76. STAGE DEVELOPPEUR JAVA TALEND H/F


Lieu : Société : Hardis Group Tour W 102 Terrasse Boieldieu 92085 Paris La Défense cedex
Encadrant : Mme Sylvie DIEUDONNE - Directrice Delivery M Rachid GOSSA - Architecte
Dates :du 4/03/2018 + 6 mois
Rémunération :1200 € par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Au sein d’une équipe projet, le stagiaire intervient pour un de nos clients - grande ONG française de développement présente en France et à l’internationale pour lutter contre les causes de la faim. Dans le cadre d’urbanisation de leur système d’information, la solution CRM Salesforce a été choisie comme application centrale. Dans ce contexte, le stagiaire participe à la réalisation de nombreux flux informatiques qui seront à créer ou à migrer avec l’ETL Talend - la solution d’intégration de données retenue dans l’architecture cible. Le stagiaire intervient sur les phases suivantes du projet
- Compréhension fonctionnelle
- Conception technique
- Développement et tests unitaires automatisés
- Correction et évolution des recettes
- Rédaction de la documentation technique Technologies utilisées : Java, MySQL, Tomcat, Jenkins, Sonar, Git, Docker, Talend Les + du stage : • Projet techniquement et fonctionnellement challengeant • Excellente ambiance de travail • Stage de pré-embauche


77. Concepteur & développeur de solution innovante de gestion de l’information


Site : Concepteur & développeur de solution innovante de gestion de l’information (STAGE) / France
Lieu : Paris la Défense : 12 place de la Défense, 92400 Courbevoie. A partir du 11 mars: Campus Aviso, Bat. A- 49-51 Quai de Dion Bouton 92800 Puteaux
Encadrant : Tuteur de stage en entreprise : M. Malo JENNEQUIN - Presales & Solutions Director Tél fixe: 01 86 95 05 15 Mob: 06 13 61 07 47 malo.jennequin@m-files.com
Dates :04/03/2019 au 03/09/2019
Rémunération :1522 euros bruts mensuels + la prise en charge du pass Navigo à 50%
Mots-clés : Master SAR, autre qu’ATIAM

Description

M-Files Corporation, éditeur du logiciel M-Files pour la Gestion Intelligente de l’information (GED/ECM), propose à ses clients de toutes tailles et de tous secteurs d’activité, des solutions logicielles à l’état de l’art de la technologie. Basé sur l’Intelligence Artificielle et un système de métadonnées dynamiques, M-Files apporte une forte valeur ajoutée aux clients, et répond aux enjeux actuels d’agilité et d’efficacité des entreprises. A l’heure de la Digital Workplace, M-Files fait bouger les lignes sur ce marché en forte croissance, avec une solution innovante et très bien positionnée par rapport à des solutions traditionnelles complexes et coûteuses à mettre en œuvre et à utiliser. Comptant plusieurs milliers de clients dans plus de 100 pays, une croissance moyenne ininterrompue de 50%, et une offre qui se différencie radicalement de la concurrence, M-Files représente le futur de l’ECM présent et ses solutions font partie des visionnaires mondial du "Magic Quadrant ECM" de Gartner depuis plus de 3 ans. Plus de 500 M-Filers sont présents dans les filiales du groupe en Finlande, Suède, France, UK, Allemagne, Australie, USA, Asie. M-Files France, la filiale française du groupe installée à Paris depuis 2 ans, recherche de nombreux talents pour contribuer à la forte croissance de la société et rejoindre son équipe dynamique et sympathique. M-Files souhaite développer un "value pack" dédié à un domaine métier particulier (confidentiel) et reposant sur son cœur de produit d’Enterprise Information Management (EIM) Un partenaire de M-Files, expert français et européen de ce domaine, apportera toute la compétence métier pour compléter le dispositif humain et technologique requis pour faire émerger une solution potentiellement unique au monde. Votre Profil : M-Files est ouvert aux candidatures en solo, ainsi qu’aux candidatures en binôme se connaissant et travaillant très efficacement ensemble. Etudiant(s) en dernière année d’école d’ingénieur ou équivalent, avec une passion pour l’informatique. Votre formation doit inclure une majeure en informatique, mais nous sommes ouverts aux candidats passionnés hors normes. Très bon développeur en C# ou C++ ayant a minima déjà pratiqué un de ces langages dans un projet d’école, en stage, ou à titre personnel. Capacité d’analyse et de conception, connaissance ou (mieux) pratique des design patterns. Connaissance de l’architecture .Net est un plus. Capacité à développer des pages HTML/CSS/JavaScript pourrait s’avérer également utile. A l’aise avec l’appel d’API REST et/ou COM/OLE. Pratique de la création et de l’administration simple de bases de données SQL (peu importe le produit). Capacité à apprendre les bases d’une norme de production documentaire complexe (S1000D) en vigueur dans les activités logistiques des secteurs tels que l’aéronautique, le spatial, la Défense et le ferroviaire. Bon relationnel pour travail en équipe. M-Files étant un éditeur logiciel d’origine finlandaise, et désormais présent sur les principaux continents, il est impératif de pouvoir lire, écrire, ainsi que de comprendre et s’exprimer correctement en Anglais (il n’est cependant pas requis d’être bilingue). Vous avez la CAN-DO attitude et n’avez pas peur de travailler dans une société dynamique et en pleine croissance


78. Conception et développement logiciel


Lieu : Issy-Les-Moulineaux
Encadrant : Norbert VANT HOF
Dates :04/03/2019 au 04/09/2019
Mots-clés : Master SAR, autre qu’ATIAM

Description

Conception et développement de composants d’API management. Au sein d’un environnement international, l’objectif du stage est de participer à la mise en place des premiers composants de la plateforme API dans le but d’accélérer les projets de construction des applications de portails extranet à travers tout le groupe SAFRAN.


79. Linux avancé : les piles graphiques F/H


Lieu : Antony
Encadrant : Nicolas Launet
Dates :du 18/03/2019 au 30/08/2019
Rémunération :1150
Mots-clés : Master SAR, autre qu’ATIAM

Description

En tant que spécialistes du logiciel embarqué, nous proposons des solutions Linux intégrant des éléments graphiques.

L’objectif de ce stage consiste à approfondir notre maîtrise des différentes couches logicielles de la pile graphique Linux en réponse aux exigences de notre marché.

Vos missions

L’objet de ce stage est dans un premier temps d’explorer le fonctionnement des différentes briques logicielles intervenant dans la pile graphique Linux et de comprendre leurs interactions. On s’intéressera notamment au Framework du framebuffer, DRM KMS, au serveurX, à Wayland, à OpenGL et à Vulkan.

Dans un second temps il s’agira d’apprendre à manipuler ces différentes briques logicielles en réalisant des démonstrateurs techniques tels que :

Un fastboot Vulkan L’acquisition d’un ou plusieurs flux vidéo, qui seront affichés dans un rendu 3D La mise en place d’un affichage déporté avec Wayland L’environnement de travail est le suivant :

Développement sous Linux Carte à base de processeur ARM (cortex A8, A9, A15) Vous serez en charge de :

Vous documenter et analyser le code source La réalisation d’applications de test permettant de valider la compréhension du fonctionnement de la pile L’étude des performances La réalisation de démonstrateurs techniques La rédaction d’un compte de rendu des résultats de votre recherches


80. Stagiaire data Engineer


Lieu : MICROPOLE , 91/Ô95, Rue Carnot 92300 Levallois-Perret , France
Encadrant : Yann CARPENTIER-GREGSON
Dates :18/03/2019 au 18/09/2019
Rémunération :1200 Brut/mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Dans le cadre d’un projet réalisé dans les locaux Micropole, le stagiaire aura en charge des tâches de développement Spark/Scala. L’objectif est d’alimenter des tables d’un datawarehouse Hexadata à partir de données stockées dans un datalake Cloudera. Apprendre auprès de nos data engineers le développement, la maintenance, et l’évolution de flux d’alimentation autour d’un datalake cloudera pour un de nos client. Le développement sera en scala. Les flux s’appuient actuellement sur Spark 1.6, et vont évoluer vers Spark 2.4. Des tâches d’extraction de données dans des fichiers plats pourront également être proposées.


81. Développeur & ingénieur d’étude H/F – Secteur Energie


Lieu : Montreuil
Encadrant : Nicolas HUCHE
Dates :18/03/2019 au 06/09/2019
Rémunération :1440,00€ brut par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Mission Intégré au sein d’une équipe Agile pour l’un de ses clients dans le domaine de l’Énergie, vous découvrirez toutes les facettes du métier de l’ingénieur informatique en participant aussi bien à des tâches techniques que fonctionnelles : conception fonctionnelle et technique des modules évolutifs, développement, recette technique et fonctionnelle. Vous serez entouré(e) de personnes aux compétences diversifiées sur lesquelles vous pourrez vous appuyer pour développer les vôtres.

Bibliographie

Intérêt du stage Ce type de stage présente de nombreuses opportunités :  Travailler en Agile SCRUM et participer aux cérémonies en tant que Team Member (sprint planning, stand-up, sprint review, rétrospective).  Utiliser des outils de développement (Eclipse/Maven) et de testing (Quality Center).  Partager, documenter et présenter le travail réalisé (SVN, Wiki, Spécifications fonctionnelles).

Environnement technologique/fonctionnel Le projet met en oeuvre différentes technologies de développement Java / Google GWT / PHP / Scripts Shell / SQL / Axis2 / Maven. Des méthodes de contrôles qualité sont portées par une Plateforme d’Intégration Continue (PIC) utilisant Maven et Jenkins, ainsi que des outils de qualimétrie (Sonar), d’automatisation des tests (JUnit) et du déploiement des applications (Shell). Vous découvrirez différents aspects du métier de l’énergie relevant principalement de la gestion du réseau électrique.

Environnement humain Vous serez intégré(e) à une équipe jeune et dynamique de 10 personnes, et serez encadré(e) par un Chef de projet expérimenté. Une formation d’accueil personnalisée sur les technologies et produits utilisés au sein du projet vous sera délivrée au cours de votre stage.

Profil recherché En dernière année d’école d’Ingénieur ou Master 2 Informatique, vous souhaitez vous investir dans un projet d’envergure. Vos expériences précédentes vous ont permis de découvrir différents environnements techniques et plus particulièrement les techniques de programmation JAVA, J2EE. Dynamique, ouvert et sérieux, disposant d’un esprit d’équipe, curieux de découvrir toutes les facettes du métier de l’informatique, vous êtes le bon profil. Vous devez avoir les compétences informatiques suivantes : Shell/Linux, Java/PHP, Javascript, Bases de données.


82. Stage – Développeur & ingénieur d’étude H/F


Lieu : Sopra Steria Tour Cityscope - Bureau 6.20 3 rue Franklin 93100 Montreuil - France
Encadrant : Romain CAULLIER
Dates :18/03/2019 au 06/09/2019
Rémunération :1440,00€ brut par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Vous travaillerez sur l’application Inforeseau, SI coeur de métier d’Enedis. Cette application, utilisée par plus de 10 000 utilisateurs, permet de rapprocher les données descriptives du réseau électrique Français, les données clientèles et les coupures électriques. Cette application est cruciale pour Enedis, notamment durant les périodes de crises climatiques afin de diagnostiquer les communes et les clients coupés. Au sein d’une équipe jeune et dynamique d’environ 10 personnes, dans une contexte Agile, vous serez accompagné par un responsable de stage qui vous apportera le support méthodologique et technique nécessaire. Vous aurez notamment l’occasion de prendre part à la refonte de l’application en Angular 6 !

Bibliographie

Missions du stage Sujet principal : Développement d’une interface multi-frame permettant la création de coupures sur des plages de temps à renseigner incluant :  Réalisation d’un composant d’arborescence interactive.  Réalisation d’un composant de sélection de Time-Zone multiples superposables. (Plage de coupure programmée, plage de coupure réalisée, plage d’information).  Réalisation de formulaires  Mettre en place des fonctionnalités de filtrage, pagination, tri et extraction des données au format .csv  Mettre en place les règles de gestion  Sécurité : Inclure les normes de l’OWASP dans le développement + Système de gestion des habilitations par profil d’utilisateur.  Respecter les normes de qualité statique du code (SonarCube)  Mesurer les performances obtenues (Angular 6, HTML5, CSS3, Java 8, Hibernate)

Autres attendus :
- Participer à la réalisation de de tests techniques et fonctionnels (JUnit, HP-ALM)
- Participer aux différentes instances agiles en sachant faire preuve d’analyse et de recule pour proposer des solutions techniques aux problématiques fonctionnelles rencontrées.
- Savoir s’intégrer au sein d’une équipe projet, communiquer efficacement et développer son relationnel client.

Intérêt du stage Vous participerez aux différentes phases du cycle de vie des évolutions du projet au sein d’une grande structure :
- Développement (Front-end, Back-end, Scripting)
- Découvrir les différents protocoles d’échanges entre plate-formes (CFT, SSIE, SOAP, REST, JMS).
- Participation aux campagnes de tests
- Découvrir l’outillage d’industrialisation de nos projets
- Estimation de charges Vous serez entouré(e) de personnes aux compétences diversifiées sur lesquels vous pourrez vous appuyer pour développer les vôtres.

Environnement technologique/fonctionnel L’application est fonctionnellement riche et s’interface avec de nombreux SI, induisant un travail d’intégration très riche en enseignements. De plus, elle dispose d’une architecture J2EE complète avec Webservices, EAI, Dataguard, Load Balancing entre différents serveurs et doit respecter des contraintes de continuité totale de service.

Technologies utilisées : JAVA/J2EE / Spring / Hibernate / SQL / Angular / Eclipse / Jenkins / Junit / Sonar / Dockers / Maven

Profil recherché En dernière année d’école d’Ingénieur ou Master 2 Informatique, vous souhaitez vous investir dans un projet de grande envergure. Vos expériences précédentes vous ont permis de découvrir différents environnements techniques et plus particulièrement les techniques de programmation JAVA, J2EE. Dynamique, ouvert et sérieux, disposant d’un esprit d’équipe, curieux de découvrir toutes les facettes du métier de l’informatique, vous êtes le bon profil.
- Connaissances en Shell, JAVA et SQL indispensables.
- Connaissances Angular et Microservices sont un plus.


83. Stage Développement JAVA


Lieu : MIRAKL 45, rue de la Bienfaisance 75008 PARIS
Encadrant : Maxime GABUT
Dates :01/04/2019 au 27/09/2019
Rémunération :1400 € brut mensuel
Mots-clés : Master SAR, autre qu’ATIAM

Description

LA MISSION

Afin de former les stagiaires aux technologies et méthodologies utilisées chez Mirakl, nos stagiaires commencent toujours par développer des outils qui permettent de faciliter le travail de nos différentes équipes. Ces outils commencent comme des proof of concept et permettent de tester de nouvelles technologies pouvant être ensuite utilisées directement dans le coeur de la solution Mirakl. Après cette étape de formation, ils sont intégrés dans l’une des équipes produits Mirakl afin de commencer la conception et le développement de fonctionnalités qui seront utilisées par nos clients.

Plusieurs sujets de stage sont possibles au sein de Mirakl. Voici notamment l’un d’eux :

Kafka Topic Browser :

Mirakl développe une solution logicielle permettant à ses clients e-commerçants de développer une activité de place de marché.

La migration en cours des applications Mirakl d’un modèle monolithique à un modèle de micro-services passe par une utilisation croissante d’Apache Kafka pour la communication entre les différentes briques applicatives.

Dans le cadre d’investigations (techniques, par exemple lors d’un dysfonctionnement, ou fonctionnelles, par exemple pour comprendre l’utilisation de nos applications par nos clients), il s’avère nécessaire de pouvoir consulter le contenu des différents topics Kafka.

Le stage de fin d’étude consiste à développer une application (Java, Spring, ...) permettant à des utilisateurs moins techniques (ex : support client) et via une interface web (en React) de :

consulter le contenu d’un ou plusieurs topics afficher différentes métriques concernant son contenu (nombre, origine, types les plus fréquents, ...) filtrer les messages selon différents critères (type de payload, date, nombre de rejeux, …) rejouer tout ou partie des messages Le développement sera fait suivant les méthodes de travail et les critères de qualités en vigueur à Mirakl (tests unitaires, revue de code, agilité, développement incrémental, etc…).

Le stagiaire pourra compter sur le soutien de l’équipe à laquelle il sera intégré pour mener à bien ce projet.

REQUIREMENTS

Nous recherchons une/un stagiaire avec de solides base en développement Java, ayant envie de se perfectionner au sein d’une équipe de développeur/euses Agile, et souhaitant apprendre et progresser dans les technologies Ops que nous utilisons.

Ce qui nous importe également c’est que :

vous êtes capable de vous adapter rapidement et que vous soyez ouvert/e d’esprit vous aimez travailler en équipe dans un contexte agile vous voulez livrer du code qualitatif, performant et testé vous aimez développer sur une plateforme de qualité comme GNU/Linux ou MacOS vous aimez surtout réfléchir à des problèmes métier et développer des solutions vous parlez bien anglais


84. Migration docker-swarm vers Kubernetes


Lieu : 110 avenue de la République, 75011 Paris
Encadrant : Paul Tonelli
Dates :08/04/2019 => 31/09/2019
Rémunération :1000€ brut / mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Réaliser la migration de la production actuellement sous docker swarm vers kubernetes en s’intégrant à l’équipe devops). Une partie des choix technologiques ont déjà été effectué. Ajout et modification du monitoring, des logs associés. Automatisation de l’ensemble des opérations de déploiement