Stages de la spécialité SAR

La procédure précise pour élaborer la convention de stage sera donnée prochainement, mais les proposeurs de stages peuvent être contactés sans attendre.

Liste chronologique des 118 sujets proposés
les sujets sur fond coloré sont déjà attribués
L

Pour passer du mode abrégé au mode étendu, cliquer sur le bouton ci-dessus.
Pour être prévenu des stages annoncés tardivement, utiliser le fil RSS: il est spécifique à cette rubrique.
Pour ne lister que les stages associés à un mot-clé, cliquer sur une occurrence des mot-clés apparaissant en mode étendu sous le titre des stages.

1. Modèles sinusoïdaux et méthodes bayésiennes pour la séparation de sources sonores


Site : Audio, Acoustiques et Ondes (AAO)
Lieu : Télécom ParisTech, Département de Traitement du Signal et des Images (TSI), groupe Audio, Acoustiques et Ondes (AAO) Adresse : 46 rue Barrault, 75013 Paris
Encadrant : Roland Badeau, Maître de Conférences à Télécom ParisTech
Dates :Toute date à partir du 01/02/2017 (durée : 5 mois)
Rémunération :De l’ordre de 550 € par mois
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Contexte : Les techniques de séparation de sources sonores permettent, dans le cas d’un mélange "sous-déterminé", de séparer un enregistrement musical constitué d’un faible nombre de canaux (par exemple monophonique ou stéréophonique) en un nombre supérieur de pistes audio correspondant à chaque instrument de musique. Bien qu’un pan entier de la littérature a déjà été consacré à ce sujet, les techniques actuelles de l’état de l’art souffrent encore de défauts tels que des artéfacts et distorsions.

Sujet de stage : Dans ce stage, nous proposons d’aborder le problème de séparation de sources d’une nouvelle manière. Alors que l’approche commune consiste à traiter le signal audio dans un domaine transformé (comme le plan temps-fréquence), le cadre de travail proposé vise à manipuler une représentation plus compacte de la musique, en l’occurrence la séquence de paramètres de sinusoïdes et de bruit produite par un estimateur ad-hoc, nous permettant d’exploiter conjointement deux types de connaissances : des modèles paramétriques de sources pouvant être estimés d’une manière soit non supervisée, soit supervisée (en utilisant des données d’apprentissage) et des indices perceptifs de "destin commun" utilisés par le système auditif humain. L’objectif de ce stage est donc d’une part de produire des algorithmes de séparation de sources, et d’autre part d’améliorer la qualité audio des pistes séparées, en combinant des modèles paramétriques réalistes avec des techniques d’apprentissage automatique de l’état de l’art.

Mots clés : Traitement du signal, séparation de sources, méthodes bayésiennes, modèles à variables latentes, algorithme espérance-maximisation (EM) variationnel, représentations d’états, filtrage de Kalman, modèles de Markov cachés (hidden Markov models, HMM), méthodes Monte Carlo Markov Chain (MCMC).

Profil du candidat : les conditions exigées pour ce stage sont les suivantes :

  • deuxième année de Master Recherche ;
  • des connaissances en traitement du signal audio ;
  • des connaissances en probabilités, statistiques et estimation bayésienne ;
  • la maîtrise du langage Matlab.

Contact : Les candidats intéressés peuvent contacter Roland Badeau (roland.badeau@telecom-paristech.fr) pour plus d’informations, ou directement adresser par courriel une lettre de candidature incluant un Curriculum Vitae.

Bibliographie

M. Betser. Sinusoidal polynomial parameter estimation using the distribution derivative. IEEE Transactions on Signal Processing, 57(12):4633–4645, Dec 2009.

Sylvain Marchand and Philippe Depalle. Generalization of the derivative analysis method to non-stationary sinusoidal modeling. Proc. of Digital Audio Effects (DAFx) Conference, pages 281–288, Espoo, Finland, September 2008.

E. Creager, N. Stein, R. Badeau, P. Depalle. Nonnegative tensor factorization with frequency modulation cues for blind audio source séparation. Proc. of 17th International Society for Music Information Retrieval (ISMIR) Conference, Aug 2016, New York, NY, United States.

M. Campedel-Oudot, O. Cappe, and E. Moulines. Estimation of the spectral envelope of voiced sounds using a penalized likelihood approach. IEEE Transactions on Speech and Audio Processing, , 9(5):469–481, Jul 2001.


Sujet de stage

2. Externalisation au casque et perception de la distance


Lieu : Université de Lyon, Ecole Nationale des Travaux Publics de l'Etat (ENTPE) Laboratoire Génie Civil et Bâtiment, Rue M. Audin, 69518 Vaulx-en-Velin Cedex
Encadrant : Mathieu Lavandier, mathieu.lavandier@entpe.fr 04 72 04 70 30 à partir du 16 janvier (possibilité de Skype avant cette date)
Dates :du 01/02/2017 au 31/07/2017
Rémunération :Indemnité forfaitaire de stage (environ 550 €/ mois)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Résumé Le son émis par une source réelle est normalement perçu comme « externalisé », c’est-à-dire comme provenant de l’environnement autour de l’auditeur. Nous sommes également capables d’évaluer (au moins grossièrement) la distance d’une source simplement d’après le son qu’elle produit à nos oreilles. Cette distance peut être réelle quand nous sommes en présence de la source ou virtuelle lorsque la scène sonore est simulée au casque. Par contre, les sons reproduits au casque peuvent aussi être perçus comme internalisés, c’est-à-dire localisés dans la tête. Leur externalisation serait principalement due aux indices binauraux associés au filtrage du son par le pavillon et la tête (décrit par les HRTFs) et à la réverbération dans les salles qui produit des variations temporelles de ces indices. Lors de la simulation d’une scène sonore au casque, suivant les caractéristiques des signaux reproduits, il est a priori possible de simuler (plus ou moins précisément) une source lointaine ou proche qui sera par ailleurs plus ou moins externalisée. Même si cela peut sembler paradoxale, les auditeurs semblent capables de percevoir, sous certaines conditions, des différences de distances pour des sources qui restent pourtant internalisées. Ce stage a pour but de chercher à comprendre les différences et points communs entre externalisation et perception de la distance (réelle ou virtuelle) en mettant en évidence les indices acoustiques sous-jacents à notre perception.

Type de travail Expérimentation avec mesures de réponses impulsionnelles binaurales de salles réelles (mesures acoustiques, MatLab) et/ou simulations en acoustique des salles (CattAcoustic), analyse et traitement de signaux audio (MatLab), mise en place de tests d’écoute rigoureusement contrôlés (Labview), analyse statistique de données.

Mots clés Externalisation, distance (réelle/virtuelle), écoute binaurale, ITD/ILD, réverbération, psychoacoustique, perception sonore

Possibilité de poursuite en thèse Ce sujet est adapté à une poursuite des travaux en thèse. Un financement pourra être recherché le cas échéant.

Bibliographie

Catic et al. (2015), The role of reverberation-related binaural cues in the externalization of speech, J. Acoust. Soc. Am. 138, pp. 1154-1167 Bidart & Lavandier (2016), Room-induced cues for the perception of virtual auditory distance with stimuli equalized in level, Acta Acustica united with Acustica, 102, pp. 159-169


3. Perception de la hauteur tonale de sons complexes harmoniques PSHCs


Lieu : Laboratoire de Mécanique et d'Acoustique, Marseille
Encadrant : Olivier Macherey
Dates :Mars-Août 2017
Rémunération :de l’ordre de 500 euros/mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

La saillance de la hauteur tonale de sons complexes harmoniques diffère suivant le rang des harmoniques présents dans le complexe. Typiquement, lorsque le son contient des harmoniques de rangs faibles (les premiers harmoniques), la perception de la hauteur est excellente et les sujets peuvent différencier des sons dont les fréquences fondamentales ne diffèrent que de 1% ou moins. Les indices exacts utilisés par le système auditif pour percevoir la hauteur de tels sons ne sont, cependant, pas connus et peuvent potentiellement être d’ordre temporel ou spectral. Lorsque le son ne contient que des harmoniques de rang élevé, le système auditif n’a par contre à sa disposition que des indices temporels pour estimer la hauteur tonale. Le percept produit par un son ne contenant que des harmoniques de rang élevé est moins saillant, avec des seuils de discrimination parfois dix fois supérieur à ce qui est observé pour des sons ne contenant que des harmoniques de rang faible. Nous avons récemment développé une classe de sons nommés pulse-spreading harmonic complexes (PSHCs). Ces sons ont la particularité de pouvoir produire des sensations de hauteur tonale très différentes tout en gardant la même composition spectrale (Macherey et Carlyon, 2014). Ils constituent donc un outil intéressant pour étudier la perception de la hauteur tonale sur base d’indices purement temporels. Ce stage consistera à étudier la perception de la hauteur de sons PSHCs chez un groupe de sujets normo-entendants afin (1) de mieux appréhender les limites de cette perception et, en particulier, identifier jusqu’à quelle cadence les indices temporels permettent d’encoder un changement de hauteur tonale indépendamment de la composition spectrale des sons, et (2) de tester l’existence d’un mécanisme commun aux sons contenant des harmoniques de rang faible et de rang élevé pour l’estimation de la hauteur tonale. Cette deuxième expérience consistera à étudier des patterns de masquage proactif pour différents sons PSHCs.

Ce que nous recherchons : Un étudiant en master 2 d’Acoustique ou en stage de fin d’études d’école d’ingénieur ayant un vif intérêt pour la perception auditive et/ou le traitement du signal audio ainsi que des compétences en programmation matlab.

Ce que nous offrons : Un stage de 4 à 6 mois dans l’Equipe Sons du Laboratoire de Mécanique et d’Acoustique de Marseille. Vous développerez vos connaissances en psychoacoustique et apprendrez à mettre en place une expérience perceptive, passer des tests comportementaux et analyser les résultats de ces tests. Gratification de l’ordre de 500 euros par mois.

Contact : Olivier Macherey – LMA Equipe « Sons » - macherey@lma.cnrs-mrs.fr

Bibliographie

Macherey, O., & Carlyon, R.P. (2014) “Re-examining the upper limit of temporal pitch” J. Acoust. Soc. Am. 136:3186-3199.


4. Conversion de L’identité de la Voix Chantée


Site : Analyse et Synthèse des Sons
Lieu : IRCAM
Encadrant : Nicolas Obin, Axel Roebel Nicolas.Obin@ircam.fr
Dates :01/02/2017 au 30/06/17
Rémunération : 550€ / mois + avantages sociaux
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Contexte :

La conversion de l’identité de la voix consiste à modifier les caractéristiques d’une voix « source » pour reproduire les caractéristiques d’une voix « cible » à imiter, à partir d’une collection d’exemples de la voix « cible ». Aujourd’hui, la conversion d’identité de la voix basée sur la concaténation d’unités d’enveloppes spectrales permet de réaliser des conversions de haute qualité [Dutoit, 2007 ; Wu, 2013 ; Huber 2015]. Notamment, le système de conversion d’identité développé à l’Ircam a été exploité dans des projets de production professionnelle pour recréer des voix de personnalités historiques : le maréchal Pétain dans le documentaire « Juger Pétain » en 2012, et Louis de Funès dans le film « Pourquoi j’ai pas mangé mon père » de Jamel Debbouze en 2015. Le stage s’appuiera sur les connaissances actuelles en analyse/synthèse de la voix et en conversion d’identité de la voix de l’équipe Analyse et Synthèse des Sons à l’Ircam.

Objectifs :

Le travail effectué dans ce stage concernera l’extension du système de conversion d’identité originellement développé pour la voix parlée à la voix chantée [Villavicencio, 2010]. Il comprendra l’amélioration du moteur de conversion d’identité et l’intégration des spécificités de la voix chantée, comme par exemple :

- Représentation de l’espace acoustique de la voix chantée dans l’espace des phonèmes, hauteur, durée, intensité, etc...
- Représentation de la source glottique des voix source et cible et amélioration de la conversion de la « qualité vocale » (voix rauque, soufflée, etc..)
- Automatisation de la conversion de l’identité de la voix pour son exploitation dans un contexte professionnel avec le minimum d’intervention humaine requise ;

Les problèmes abordés pendant le stage seront sélectionnés en début du stage après une phase d’orientation et une étude bibliographique. Les solutions réalisées au cours du stage seront intégrées au système de conversion d’identité de la voix de l’Ircam, avec possibilité d’exploitation industrielle et professionnelle.

Bibliographie

[Dutoit, 2007] T. Dutoit, et al. Towards a Voice Conversion System based on Frame Selection. IEEE International Conference Acoustics, Speech and Signal Processing (ICASSP).

[Huber 2015] S. Huber, “Voice Conversion by modelling and transformation of extended voice characteristics”, Thèse Université Pierre et Marie Curie (Paris VI), 2015.

[Villavicencio, 2010] Fernando Villavicencio, Jordi Bonada,. ”Applying voice conversion to concatenative singing-voice synthesis”. Interspeech, 2010.

[Wu, 2013] Z. Wu, T. Virtanen, T. Kinnunen, Eng Siong Chng, Haizhou Li. ”Exemplar- based Unit Selection for Voice Conversion utilizing Temporal Information”. Interspeech 2013.


5. Retournement temporel acoustique aveugle


Site : Institut Langevin (stage en collaboration entre équipes OMC et NCIS)
Lieu : Institut Langevin, 1 rue Jussieu, 75005 Paris
Encadrant : Julien de Rosny (Directeur de recherche - CNRS), Shoichi Koyama (Visiting associate professor - University of Tokyo) and Laurent Daudet (Pr. Paris Diderot)
Dates :du 01/03/2016 au 31/07/2016
Rémunération :gratification stagiaire
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

For more 20 years, the concept of time reversal mirror has shown its efficiency for the back propagation of waves towards their initial sources, regardless of the complexity of the medium [1]. In particular, this time reversal principle has been successfully applied in acoustics, by focusing an audible message onto a person within a highly reverberant room [2]. However, as such this theory requires a preliminary calibration step that can be quite time-consuming, in order to estimate all the Green’s functions (impulse responses) between all the room positions and the time reversal mirror microphones. The goal of this internship is to investigate how to drastically reduce this calibration step, by estimating the Green’s functions from speech recordings. This processing is equivalent to a blind dereverberation (deconvolution) of the voice message from the room im- pulse response. To that end, we want to apply recent results obtained on source localization [3]. Indeed, to find the position of the source, the field is dereverberated thanks to a projection operator mixed with a spare algorithm. The experiment will be conducted with a new 32-channel time reversal mirror, in a dedicated room. To reach the goal of blind acoustic time reversal, the work will be composed of several steps • Fully calibrate the new time reversal mirror • Apply the blind source localization algorithm to locate a speaker in a room, with this time reversal mirror • Perform de-reverberation thanks to a-priori information on speech statistical properties • Mix the two to accelerate the estimation of the Green’s function

Required skills :
- good knowledge, at Master level, of acoustics and signal processing
- programming capacities in matlab or python
- ability to perform acoustic experiments
- ability to work in english

For information contact : julien.derosny@espci.fr / laurent.daudet@espci.fr

Bibliographie

[1] M. Fink, Les miroirs à retournement temporel (2001). Pour la science, n° 32.

[2] Yon, S., Tanter, M., & Fink, M. (2003). Sound focusing in rooms : The time-reversal approach. The Journal of the Acoustical Society of America, 113(3), 1533-1543.

[3] Chardon, G., Nowakowski, T., De Rosny, J., & Daudet, L. (2015). A blind dereverberation method for nar- rowband source localization. IEEE Journal of Selected Topics in Signal Processing, 9(5), 815-824.


6. Environnement acoustique 3D pour une interface cerveau-machine


Site : Environnement acoustique 3D pour une interface cerveau-machine
Lieu : Locaux à l’ENS à Châtelet
Encadrant : Sid KOUIDER et Nicolas BARASCUD
Dates :6 mois entre Janvier 2017 et Juillet 2017
Rémunération :554,40
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte et Objectif du stage : Ces dernières années ont vu un nombre grandissant de recherches sur des interfaces cerveau-machine, c’est-à-dire des dispositifs permettant d’agir sur le monde extérieure directement par la pensée. Les casques EEG (ElectroEncéphaloGraphie), permettant d’enregistrer l’activité cérébrale superficielle, deviennent portatifs et sont désormais abordables pour le grand public. De tels dispositifs feront bientôt partie de notre quotidien. Les toutes dernières découvertes en neurosciences et en psychoacoustique indique que les réponses cérébrales à des sons, et en particulier à des signaux de paroles, peuvent être décodées par l’EEG. Par exemple, dans une situation de type ‘Cocktail Party’, avec plusieurs locuteurs, il devient possible de déterminer si l’on porte attention à la personne A plutôt que la personne B, juste en décodant les signaux neuronaux enregistrés par l’EEG. Néanmoins, ce décodage de la parole et de l’attention n’a pas encore été utilisé en temps-réel, dans le cadre d’une interface cerveau-machine. Le projet actuel consiste à créer un environnement sonore 3D dans lequel les signaux sonores (parole ou musique) évolueront en temps-réel en fonction de l’attention mesurée par l’activité cérébrale.

Vous serez intégré, au sein de l’ENS, à une équipe pluridisciplinaire composée d’ingénieurs et de chercheurs en neurosciences cognitives, machine learning et systèmes embarqués dont l’objectif est de développer un prototype rapidement. Vous travaillez en particulier sur la partie audio et spatialisation sonore, et vous serez en charge de mettre en place un environnement acoustique en 3D virtuel utilisable en temps réel.

Déroulement du stage :

Le stage se déroulera suivant les phases suivantes : Bibliographie concernant l’audition et la spatialisation des flux en neurosciences cognitives et psychoacoustique Développement/mise en place de l’environnement son 3D interfacé pour le temps réel Expérience en conditions réelles Rédaction du mémoire Toutes ces étapes impliquent des échanges et une intégration au sein de l’équipe importante. En effet, la qualité des stimuli et de leur spatialisation sont au coeur du système et conditionnent son bon fonctionnement.

Compétences souhaitées :

  • Traitement du signal.
  • Bonne compétences en programmation Matlab ou Python. Une expérience avec un dispositif temps réel est un plus.
  • Connaissance des systèmes son 3D types binaural.
  • Psychoacoustique, psychologie cognitive expérimentale.

7. Production du son par les instruments coniques à anche


Site : Laboratoire de Mécanique et d’Acoustique
Lieu : LMA-CNRS, Laboratoire de Mécanique et d'Acoustique 4 impasse Nikola Tesla, CS 40006 F-13453 Marseille Cedex 13, France
Encadrant : Proposants Jean Kergomard (DR émérite) +33 4 84 52 42 24 kergomard@lma.cnrs-mrs.fr Philippe Guillemain (CR) guillemain@lma.cnrs-mrs.fr
Dates :01/02/2017 au 30/06/2017
Rémunération :Gratification 550€/mois
Mots-clés : Parcours ATIAM : Acoustique

Description

Les instruments coniques à anche (saxophone, hautbois, basson, etc.) produisent des sons dont la forme d’onde est en général très caractéristique. Récemment un modèle numérique minimum a été trouvé qui donne les principaux paramètres des sons produits, à travers leur forme d’onde. Ceci comble partiellement une lacune dans la compréhension du fonctionnement de ces instruments : autant les instruments cylindriques, du type clarinette, dont la forme d’onde est proche du signal carré, permettent des avancées sur l’influence de paramètres secondaires, autant les paramètres primaires des instruments coniques demandent encore des recherches. Ce modèle minimum, peut, par comparaison avec d’autres plus complets, permettre d’appréhender le rôle d’autres phénomènes physiques tels que la dynamique d’anche, qui sont nécessairement présents dans les signaux expérimentaux La but de ce stage est de tenter de trouver une forme analytique à la forme d’onde des instruments coniques, en partant des résultats mentionnés ci-dessus, mais aussi des travaux de Gokhstein il y a plus de 30 ans. Cette forme d’onde serait comparée au calcul numérique et à l’expérience.

Compétences requises : acoustique des instruments à vent et à trous latéraux

Compétences acquises : auto-oscillations, systèmes dynamiques, méthodes temporelles et équilibrage harmonique

Bibliographie

J. Kergomard, P. Guillemain, F. Silva, S. Karkar, Idealized digital models for conical reed instruments, with focus on the internal pressure waveform, J. Acoust. Soc. Am, 139, 927-937, 2016

A. Ya. Gokhshtein, “Pressure jumps in the reflection of a wave from the end of a tube and their effect on the pitch of sound,” Sov. Phys. Dokl. 25, 462–464 (1980).

A. Chaigne, J. Kergomard, Acoustique des instruments de musique, Belin, 2008


8. Caractérisation acoustique expérimentale de trous sous-coupés pour les instruments de musique à vent


Site : Laboratoire de Mécanique et d’Acoustique
Lieu : LMA-CNRS 4 impasse Nikola Tesla, CS 40006 F-13453 Marseille Cedex 13, France
Encadrant : Jean Kergomard (DR émérite) +33 4 84 52 42 24 kergomard@lma.cnrs-mrs.fr Christophe Vergez (DR) vergez@lma.cnrs-mrs.fr Michael Jousserand, Buffet-Crampon
Dates :01/02/2017 au 30/06/2017
Rémunération :Gratification 550€/mois
Mots-clés : Parcours ATIAM : Acoustique

Description

Il est d’usage en facture d’instruments à vent de « sous-couper » les trous latéraux, en particulier pour les instruments en bois. Cela signifie que les cheminées de ces trous ne sont pas cylindriques, mais souvent agrandies à la base. Cela permet notamment de corriger la justesse et de limiter les pertes dues à des phénomènes non linéaires, pertes qui limitent la puissance rayonnée. Le premier but de ce stage est de caractériser le fonctionnement linéaire (c’est-à-dire à faible niveau) de l’instrument muni de ces trous. Pour cela on cherchera à mesurer les éléments localisés qui représentent l’influence du trou sur la propagation dans le tuyau (il s’agit d’une impédance en série et d’une impédance en parallèle). La méthode est la mesure de l’impédance d’entrée du tuyau, avec plusieurs configurations différentes. Une partie des résultats pourra être comparée à des modèles simples. Enfin quelques essais seront faits avec une bouche artificielle pour établir un diagramme de bifurcation, et avoir une idée de l’effet des pertes non linéaires. Ce stage sera en collaboration avec Buffet-Crampon, et peut être le prélude d’une thèse sur le même sujet en convention CIFRE.

Compétences requises : acoustique linéaire dans les conduits.

Compétences visées : mesures de base en acoustique, acoustique des instruments à vent.

Bibliographie

V. Dubos, J. Kergomard, A. Khettabi, J. Dalmont, D. Keefe, C. Nederveen : Theory of sound propagation in a duct with a branched tube using modal decomposition. Acustica united with Acta Acustica 85 (1999) 153–169.

J. P. Dalmont, C. J. Nederveen, V. Dubos, S. Ollivier, V. Meserette, E. te Sligte : Experimental determination of the equivalent circuit of an open side hole : Linear and non linear behaviour. Acta Acustica united with Acustica 88 (2002) 567–575.

A. Chaigne, J. Kergomard : Acoustique des instruments de musique. Éditions Belin, Paris, France, 2008


9. Détection et classification automatique de signaux impulsionnels


Site : Trac-Détection et classification automatique de signaux impulsionnels
Lieu : Société ORELIA, 20 Chemin des Prés, 7780 à THOMERY. (40 minutes en train de Paris gare de Lyon)
Encadrant : Boris DEFREVILLE
Dates :du 01/02/2016 au 30/07/2016
Rémunération :SMIC (environ 1 144 € net mensuel)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

La société ORELIA développe des systèmes de classification acoustique par technique de reconnaissance de formes (apprentissage supervisé). Avec des applications comme par exemple la détection de survols d’avions ou détection de bruits anormaux sur des équipements industriels…

Les sons impulsionnels (sons d’impacts) forment une classe de sons à part entière de part leur durée très courte et leur spectre généralement très large bande. Ils sont de plus en plus présents dans les projets de la société. Très peu d’études leur sont consacrées. On trouve essentiellement des papiers dans le domaine des sons de percussions.

Le but du stage est de travailler précisément à la classification de sons impulsionnels (domaine industriel), le but étant d’améliorer les performances obtenues actuellement en ajoutant de nouvelles techniques innovantes.

Les grandes parties en sont :

  1. Recherche bibliographique de l’état de l’art et des techniques existantes.
  2. Etablissement d’une typologie des bruits impulsifs.
  3. Définition d’une stratégie pour la classification automatique.
  4. Définition et implémentation de nouveaux descripteurs audio.
  5. Etude algorithmique.
  6. Etude de classifieurs (SVM et réseaux de neurones).
  7. Intégration dans l’environnement logiciel d’ORELIA (C++).

L’étudiant doit avoir de solides connaissances dans la programmation en C++, en traitement du signal et si possible en linux embarqué.

Bibliographie

  • Automatic Classification of Drum Sounds with Indefinite Pitch
  • Automatic Classification of Drum Sounds : A Comparison of Feature Selection Methods and Classification Techniques

10. Sonification interactive pour la représentation de protéines


Site : CEDRIC, équipe Interactivité pour Lire et Jouer / GBA, équipe Molecular Modeling et Drug Design
Lieu : laboratoire CEDRIC, Conservatoire National des Arts et Métiers - Paris - 2 rue Conté, 75003 Paris
Encadrant : Tifanie Bouchara (tifanie.bouchara@cnam.fr) et Matthieu Montès (matthieu.montes@cnma.fr)
Dates :du 27/02/16 au 27/07/16 (à préciser)
Rémunération :environ 550€ / mois (gratification de stage)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte et objectifs du stage Ce stage s’inscrit dans le cadre du projet européen VIDOCK (VIsualization and DOCKing software) dont l’objectif global est d’apporter de nouvelles méthodes de représentations de macromolécules, par exemple par projection 2D ou sous forme 3D pour du docking moléculaire. Une plateforme interactive a ainsi été créée sous forme de jeu vidéo, Udock [1], permettant ainsi à des utilisateurs naïfs, sans connaissances préalables en bioinformatique, d’apporter de nouvelles connaissances sur le docking de protéines. Dans le cadre du stage, nous nous proposons de représenter ces protéines par du son, par des stratégies de sonification.

Déroulement du stage Le stage se déroulera en plusieurs phases, en fonction de l’avancement et de l’intérêt du stagiaire. 1) Etat de l’art : il s’agira de dresser une revue de littérature conséquente sur la sonification de données et en particulier sur la sonification de molécules [2,3]. 2) Conception d’une représentation sonore adaptée : en s’inspirant des travaux pré-existants, il s’agira de proposer de nouvelles méthodes de sonification innovantes pour la représentation de protéines. Le travail de l’étudiant consistera donc à déterminer, d’une part, les paramètres à sonifier parmi les données moléculaires accessibles, qu’elles soient déjà utilisées pour obtenir les représentations graphiques ou non, puis d’autre part, à concevoir plusieurs métaphores de sonification par synthèse sonore. Des expériences perceptives pourront être mises en place afin d’évaluer la cohérence entre les rendus graphiques et sonores et ainsi en optimiser la combinaison avant la phase suivante. 3) Intégration puis évaluation : l’étudiant devra intégrer la ou les stratégies de sonification proposées dans une version sonifiée d’UDOCK puis mettre en place un protocole expérimental permettant d’évaluer l’aide apporté par le son dans une tâche de docking moléculaire.

Compétences souhaitées : Synthèse et programmation sonore interactive (la connaissance de l’environnement temps-réel Max/MSP est un plus) ; Analyses statistiques (Matlab/Python/R…) ; Intérêt pour l’IHM.

Poursuite en thèse possible !

Bibliographie

http://www.vidock.comsource.fr

[1] Levieux, G., Tiger, G., Mader, S., Zagury, J., Natkin, S., & Montes., M. « Udock, the interactive docking entertainment system. » Faraday Discussions 169 (May 2014) : 425-441. http://www.udock.fr

[2] Grond, F. & Dall’Antonia, F. « SUMO : a sonification utility for molecules. » Proceedings of the 14th International Conference on Auditory Display. 2008.

[3] Picinali, L. « The sounds of proteins. » IEEE-EMBS International Conference on Biomedical and Health Informatics (BHI 2012). 2012.


11. Caractérisation computationnelle de scènes sonores urbaines


Site : equipe ADTSI IRCCYN
Lieu : IRCCYN/LS2N, Ecole Centrale Nantes. Possibilité à Cergy
Encadrant : Mathieu Lagrange, LS2N (http://www.irccyn.ec-nantes.fr/~lagrange) Catherine Lavandier, Université de Cergy
Dates :01/03/2017 au 01/07/2017
Rémunération :gratification standard
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Avec l’accroissement important de l’urbanisation de la population mondiale se pose le problème de la qualité de vie dans cet environnement soumis à de nombreuses contraintes. Avec la qualité de l’air, celle de l’environnement sonore est citée par de nombreuses études comme affectant fortement la santé au sens large du terme.

Pour mieux comprendre et à terme influer de manière positive sur cet environnement il est nécessaire de pouvoir estimer des grandeurs comme le niveau sonore du trafic routier, de la présence humaine, ou celui des oiseaux.

A ce jour, les procédés mis en place sont essentiellement prédictifs, partant d’estimation de la densité du trafic, et grâce à un modèle de sources et de propagation on peut estimer le niveau sonore issu du trafic en un point donné.

L’avènement des réseaux de capteurs bas coût de type înternet of things (IoT) promet un changement de paradigme potentiellement de grand intérêt.

C’est le propos d’un effort de recherche récemment initié à l’international comme en témoigne le projet Sonyc à New York et le projet ANR Cense dans lequel ce stage s’inscrit.

Le propos du stage est de :

  • dresser un état de l’art en estimation du niveau sonore de sources d’intérêts à partir de mesures acoustiques ;
  • participer à la conception d’un réseau de capteurs dédiés en collaboration avec les membres du consortium du projet Cense ;
  • mettre en œuvre et évaluer un ensemble de méthodes avec un soin particulier porté au compromis qualité d’estimation / coût de calcul, paramètre indispensable pour le déploiement de ce type de systèmes sur des unités de traitement embarquées.

Poursuite en thèse : oui avec financement ANR

Bibliographie

Deep Convolutional Neural Networks and Data Augmentation for Environmental Sound Classification, Justin Salamon, Juan Pablo Bello (https://arxiv.org/abs/1608.04363)

Estimating traffic noise levels using acoustic monitoring : a preliminary study JR Gloaguen, A Can, M Lagrange, JF Petiot - DCASE Workshop 2016 (https://hal.archives-ouvertes.fr/ha...)

The Implementation of Low-cost Urban Acoustic Monitoring Devices, C. Mydlarz, J. Salamon and J. P. Bello, Applied Acoustics, special issue on Acoustics of Smart Cities, 2016 (http://cmydlarz.com.s3.amazonaws.co...)


12. Musaicing multi-sources par NMF-Deconvolutive avec bases pré-apprises sur une collection musicale


Site : Trac-Musaicing multi-sources par NMF-Deconvolutive avec bases pré-apprises sur une collection musicale
Lieu : IRCAM - Equipe Analyse Synthèse
Encadrant : Geoffroy Peeters
Dates :Début février - fin juin
Rémunération :554,4 Euro/mois + Ticket Repas
Mots-clés : Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Ce stage se situe dans le contexte du music mosaicing (musaicing). Le musaicing [Zils, Pachet,2001] vise a reproduire un morceau de musique « cible » par concaténation temporelle de cours extraits audio (samples) issus d’une collection de morceaux. Ces extraits sont choisis pour avoir des propriétés acoustiques similaires (valeurs similaires de descripteurs audio) aux différents instants temporels du morceau cible et ainsi reproduire le mieux possible l’évolution temporelle de ses propriétés acoustiques. Ce mode de synthèse est dit « concaténatif » [Schwarz 2006]. Cette synthèse est cependant limitée par le fait qu’un seul échantillon peut être utilisé à chaque instant.

Ce stage se propose d’étudier une toute nouvelle méthode de synthèse appelée musaicing mutli-échantillons ou multi-sources. Nous proposons d’utiliser les méthodes de factorisation en matrice non-négative (NMF [Lee-1999]), plus précisément son extension à la déconvolution [Smaradgis-2004] pour permettre un musaicing multi-échantillon ou multi-source. Dans son utilisation habituelle, la NMF est utilisée pour séparer un signal audio musical en ses différentes sources. Une matrice de spectrogramme observée est ainsi décomposée itérativement comme le produit d’une matrice de vecteurs de bases (représentant les spectres des différentes sources) et d’une matrice de vecteurs d’activations (représentant l’utilisation de chacune des bases au cours du temps afin de reproduire le spectre cible). Dans ce cas, les bases et les activations sont issues du même spectrogramme observé.

Récemment, [Drieger et al. 2015] ont proposé l’utilisation d’une NMF contrainte pour reproduire un morceau de musique en utilisant une collection d’échantillons (sons d’abeilles, ou sons de bruits de moteurs). Pour cela, les bases de la décomposition sont pré-défines par les sons d’échantillons et seules les activations sont apprises. Dans ce stage, nous proposons d’étendre cette méthode pour le musaicing. Pour cela, nous proposons de pré-apprendre les bases sur une collection de musique par NMF-Deconvolutive. Etant donné cet ensemble de templates de sources pré-appris, le musaicing multi-source consiste à apprendre les meilleures activations temporelles pour reproduire le morceau cible.

Bibliographie

D. D. Lee and H. S. Seung. Learning the parts of objects by non-negative matrix factorization. Nature, 401(6755):788–791, 1999.

J. Driedger, T. Pratzlich, and M. Meinard. Let it bee – towards nmf-inspired audio mosaicing. In Proc. of ISMIR (International Society for Music Information Retrieval), Malaga, Spain, 2015.

P. Smaragdis. Non-negative matrix factor deconvolution ; extraction of multiple sound sources from monophonic inputs. In Fifth International Conference, ICA 2004, Granada, Spain, 2004.

D. Schwarz, G. Beller, B. Verbrugghe, and B. S. Real-time corpus-based concatenative synthesis with catart. In Proc. of DAFx (International Conference on Digital Audio Effects), Montreal, Canada, 2006.

A. Zils and F. Pachet. Musical mosaicing. In Proc. of DAFx (International Conference on Digital Audio Effects), Limerick, Ireland, 2001.


13. Mécanismes perceptifs sous-jacents au traitement Local/Global en audition


Site : PDS
Lieu : Equipe PDS, IRCAM, 1 Place Stravinsky, 75004 Paris (France)
Encadrant : Patrick Susini (01 44 78 16 09) / Olivier Houix / Emmanuel Ponsot patrick.susini@ircam.fr, olivier.houix@ircam.fr, emmanuel.ponsot@icam.fr
Dates :Durée : 5-6 mois (par exemple, Mars-Août 2017)
Rémunération :541,06€/mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte scientifique : Lorsque nous percevons une scène visuelle ou sonore, nous pouvons la percevoir de manière globale ou bien nous focaliser au niveau local sur un ou des éléments constitutifs de cette scène. La question du traitement perceptif local vs global d’une information sensorielle complexe a été abordée principalement en vision, notamment dans le cas d’une scène visuelle composée de plusieurs objets disposés spatialement et présentés simultanément, pour laquelle un percept local ainsi qu’un percept global sont accessibles. Un effet de priorité des processus de traitement de l’information globale (Navon, 1977) et une asymétrie hémisphérique des traitements locaux/globaux (Fink et al., 1997 ; Yamaguchi et al., 2000) ont été observés. Cette question a été examinée plus récemment en audition en considérant le cas de variations de hauteur (glissandi) de composantes agencées temporellement (Sanders and Poeppel, 2007 ; Bouvet et al., 2011). Les résultats montrent des similitudes avec les études en vision : le traitement global précéderait le traitement local et ils se dérouleraient dans des régions cérébrales distinctes. Cependant, les mécanismes perceptifs et neuronaux impliqués dans l’élaboration d’un percept global à partir de ses éléments locaux ainsi que leur organisation spectro-temporelle restent encore peu connus. En audition par exemple, comment et dans quels cas se forme l’impression globale d’une dynamique d’un ensemble orchestral ? (expérience partagée par tous dans la pratique de l’écoute musicale et nécessaire pour percevoir la cohérence de l’ensemble).

Objectif : Il s’agira dans ce stage d’aborder la question des mécanismes perceptifs impliqués dans la perception globale d’une scène sonore complexe et de leur hiérarchie temporelle en fonction des composantes sonores locales disponibles : dans quel cas le percept global précède et prévaut sur le percept local ? L’hypothèse que nous posons et souhaitons tester ici est que la perception globale d’une scène sonore complexe dépend de la hiérarchie de traitement de l’information locale/globale.

Déroulement envisagé : En vision, la hiérarchie de traitement au niveau local/global est abordée en combinant des éléments locaux pour créer la forme d’un élément global. Selon ce principe, le grand format d’une lettre ‘S’ est composée soit de lettres minuscules ‘s’, dans une condition congruente, soit de lettres minuscules ‘h’, dans une condition non-congruente (Navon, 1977). L’équivalent dans le domaine de l’audition pose des questions méthodologiques, notamment en ce qui concerne la notion de hiérarchie des stimuli auditifs. Une première phase – cruciale – du stage consistera à développer des combinaisons de paramètres auditifs – par exemple en manipulant la dynamique (sonie) ou le glissando (pitch) – afin d’aborder la question de la hiérarchie de traitement au niveau local/global en audition. Cette phase sera menée en partie à partir des travaux Justus & List (2005). Dans une deuxième phase, un protocole expérimental sera mis en place pour sonder la combinaison des paramètres auditifs au niveau local et global. Les études de Peretz (1990), Sanders & Poeppel D (2007), et Bouvet et al. (2011) serviront de point de départ. Enfin, les expériences seront menées, analysées et interprétées au regard des données disponibles en vision.

Compétences requises : Traitement du signal, psychologie expérimentale, analyse de données, programmation. Autonomie et goût pour la recherche.

Bibliographie

Bouvet, L., Rousset, S., Valdois, S., & Donnadieu, S. (2011). Global precedence effect in audition and vision : Evidence for similar cognitive styles across modalities. Acta psychologica, 138(2), 329-335.

Justus, T., & List, A. (2005). Auditory attention to frequency and time : an analogy to visual local–global stimuli. Cognition, 98(1), 31-51.

Navon, D. (1977). Forest before trees : The precedence of global features in visual perception. Cognitive psychology, 9(3), 353-383.

Peretz, I. (1990). Processing of local and global musical information by unilateral brain-damaged patients. Brain, 113(4), 1185-1205.

Sanders, L. D., & Poeppel, D. (2007). Local and global auditory processing : Behavioral and ERP evidence. Neuropsychologia, 45(6), 1172-1186.


14. Evaluation de la perception d’une scène sonore spatialisée en 3D


Site : The Language of Sounds - The Audio Group at Laboratoire de Mécanique et d’Acoustique
Lieu : Laboratoire, équipe ou entreprise : Laboratoire de Mécanique et d'Acoustique, CNRS Adresse : 31 chemin Joseph Aiguier 13402 Marseille Cedex 20
Encadrant : Olivier Derrien - derrien@lma.cnrs-mrs.fr Gaëtan Parseihian - parseihian@lma.cnrs-mrs.fr
Dates :01/03/2016 au 31/08/2016
Rémunération :500 € mensuels environ (montant forfaitaire CNRS soummis à ré-évaluation)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte et objectifs : Ce stage s’inscrit dans le cadre d’un projet ANR de collaboration entre le LMA, l’institut Télécom ParisTech et les sociétés AudioGaming et Immersion, lequel a pour objectif de développer des nouvelles représentations et méthodes de traitement du son 3D pour la réalité la virtuelle, les simulations et les jeux vidéo. Il est actuellement possible de générer des environnements sonores créant l’illusion de sources acoustiques localisées en tout point de l’espace, mais une spatialisation interactive impose que les signaux et les positions des sources soient séparés et bien identifiés. Lorsque la captation est une prise de son distante, les signaux de sources doivent être extraits des signaux de sortie des microphones par séparation. Ce processus génère toujours des distorsions, par exemple des résidus d’une source dans les autres. Actuellement, on évalue la qualité de la séparation au moyen de critères objectifs simples qui ne sont pas adaptés à la perception auditive. Le but de ce travail est d’évaluer la qualité de la séparation en prenant en compte la perception auditive. Plus précisément de mesurer les performances limites de notre système auditif en termes de perception de sources co-existantes au sein d’une scène sonore spatialisée.

Moyens mis en œuvre : On générera des scènes sonores spatialisées dans lesquelles on simulera des distorsions typiques d’un processus de séparation de sources, cette approche par synthèse permettant de contrôler précisément le degré de distorsion. Ensuite, on diffusera les scènes sonores sur la plate-forme de spatialisation 3D du LMA, constituée de 42 haut-parleurs disposés sur une sphère. Enfin, on mesurera la différence de perception entre la scène sonore idéale et ses versions dégradées par les imperfections de la séparation, pour un grand nombre de sujets, et dans différentes configurations.

Travail à réaliser : Il s’agira de sélectionner des signaux de sources pertinents, d’appliquer des traitements simulant une séparation imparfaite, et de préparer la diffusion sur la plate-forme de spatialisation. Ensuite, de choisir les conditions expérimentales et les protocoles de tests de manière à obtenir des résultats interprétables. Cela inclut l’interaction avec le sujet pendant l’expérience, par exemple au moyen d’une tablette tactile. Puis il s’agira d’organiser des campagnes de mesures sur un grand nombre de sujets, et enfin d’interpréter les résultats.

Type de travail : Théorique et expérimental

Résultats attendus : Mise en place d’un protocole expérimental d’évaluation de l’effet de la qualité de séparation de source sur la perception d’une scène sonore spatialisée

Compétences requises : Notion en traitement du signal, perception auditive, synthèse sonore et programmation (Matlab et/ou Max/MSP), autonomie et goût pour l’expérimentation

Possibilité de poursuite en thèse : oui


15. Perception de l’intensité sonore de sons crescendos et decrescendos


Site : Sons
Lieu : Laboratoire de Mécanique et d'Acoustique Marseille
Encadrant : Sabine Meunier – 04 91 16 41 75 – meunier@lma.cnrs-mrs.fr Ce travail sera mené en collaboration avec l'IRCAM à Paris (P. Susini, E. Ponsot)
Dates :06/02/2016 au 31/07/2016
Rémunération :546€/mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

L’intensité sonore perçu n’est pas complètement décrite par le niveau de pression acoustique que pourrait mesurer un microphone. On ne parle donc pas de décibel pour parler du percept correspondant à l’intensité sonore mais de Sonie (loudness en anglais). La sonie est souvent définie comme l’intensité "subjective" d’un son, c’est la sensation qui nous permet d’estimer qu’un son est plus ou moins fort. La sonie est un attribut fondamental dans la perception auditive humaine. Elle dépend bien sur du niveau de pression acoustique des sons, mais aussi de leur fréquence, de leur largeur de bande et de leur durée. Il est important d’être capable d’estimer la sonie dans diverses applications. La sonie est l’attribut principal des nuisances sonores : plus un son est fort, plus il est gênant. Ainsi, si l’on réduit la sonie, on réduit la gêne. En télécommunication, il est important de restituer les signaux avec une sonie confortable. De nombreuses études ont été consacrées à la sonie de sons stationnaires, et des modèles ont été développés et normalisés. Cependant, dans notre environnement les sons sont rarement stationnaires. Le but des recherches actuelles est de proposer un modèle de sonie pour les sons non stationnaires. On s’intéressera dans ce stage à des sons le dont profil temporel en intensité est croissant (crescendo) ou décroissant (decrescendo). Ce sont des profils que l’on peut retrouver en musique, mais aussi dans notre environnement (source sonore s’éloignant ou se rapprochant). Plusieurs études ont comparé les jugements en sonie de sons dont le niveau augmente ou décroît sur quelques secondes. Les résultats révèlent une asymétrie dans les jugements obtenus. En général, les sons crescendos sont jugés plus forts que les sons decrescendos, tout paramètre acoustique des deux types de signaux, autre que l’enveloppe temporelle, étant les mêmes (Ponsot, 2015). L’interprétation de cet effet varie selon les auteurs. Différentes hypothèses ont été émises pour expliquer l’origine de cette asymétrie. Certaines reposent en particulier sur le fait que l’asymétrie est plus grande pour des sons purs que pour des bruits (Neuhoff, Nature, 1998 ; Ponsot et al, 2015). On trouve 2 interprétations à ce résultat. La première, que l’on nommera évolutionniste, part de l’observation que les sons présents dans la nature sont majoritairement harmoniques. Ainsi, on surestimerait seulement les sons croissants harmoniques car ils sont critiques pour notre survie. En effet un son croissant peut être l’annonce d’un danger approchant. A l’inverse, des signaux dont le spectre est de type bruit, étant peu présents dans la nature, seraient peu importants et qu’ils augmentent en intensité ou décroissent ne serait pas critique. La deuxième hypothèse a pour base la covariance de la sonie et de la hauteur tonale (HT). En effet, il a été montré que, dans certaines conditions, la hauteur tonale augmente quand le niveau augmente et inversement. De même, il a été montré que la HT augmente pour les crescendos et diminue pour les decrescendos et que la variation est plus forte pour les crescendo que pour les decrescendo (McBeath et Neuhoff, 2002). Ainsi, on observerait des asymétries de sonie pour les sons purs (qui peuvent varier en HT) et non pas pour les bruits (pas de HT). La question posée dans ce stage concerne la différence d’asymétrie trouvée entre son pur et bruit. Peut-on généraliser cette observation et dire qu’on a une différence entre sons harmoniques et sons bruités ? Si oui, il sera intéressant alors de tester l’hypothèse de covariance sonie/HT, voire l’hypothèse évolutionniste. Si non, on pourrait tester d’autres hypothèses déjà proposées (comme les effets mnésiques) et pourquoi pas en proposer de nouvelles au vu des résultats obtenus. Pour répondre à la question posée précédemment, des mesures de sonie de sons crescendo et decrescendo seront faites pour divers sons harmoniques, divers types de bruit et divers sons environnementaux. L’étudiant pourra, à partir de résultats obtenus, poursuivre le travail de modélisation entamé lors de la thèse d’Emmanuel Ponsot (Ponsot, 2015)

Type de travail : Etude bibliographique. Développement sous le langage Max/MSP d’une expérience de mesure de la sonie, comprenant du traitement de signal, des mises en place de méthodes psychophysiques et passation d’expériences. Analyse des résultats. Modélisation de la sonie des crescendos et decrescendo.

Bibliographie

Neuhoff J. G. (1998). "Perceptual bias for rising tones", Nature (395), 123-124.

Ponsot E. (2015). "Global loudness processing of time-varying sounds", Thèse de doctorat de l’Université Pierre et Marie Curie, École doctorale ED3C.

Ponsot E., Meunier S., Kacem A., Chatron J. et Susini P. (2015). "Are rising sounds always louder ? Influences of spectral structure and intensity-region on loudness sensitivity to intensity-change direction", Acta Acustica united with Acustica, 101 (6), 1083-1093, DOI : 10.3813/AAA.918906.

McBeath M. K., Neuhoff J. G. (2002). "The Doppler effect is not what you think it is : Dramatic pitch change due to dynamic intensity change", Psychonomic Bulletin & Review 2002, 9(2), 306-313.


16. Perception et evaluation de la gêne sonore en milieu urbain


Site : Perception et Design Sonores
Lieu : STMS Ircam - 1, place Igor Stravinsky - 75004 Paris
Encadrant : Nicolas Misdariis Raphael Leiba
Dates :du 20/02/2017 au 20/07/2017
Rémunération :550 € / mois environ (+ 50% abonnement transport + 50% tickets restaurants)
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Acoustique

Description

Le sujet se situe dans le cadre du programme de recherche Mouvie, « Mobilite et Qualite de Vie en Milieu Urbain » (http://www.upmc.fr/fr/recherche/pol...).

Le volet acoustique de ce programme vise, entre autres, la mesure, modélisation et estimation de la gêne sonore ressentie par les riverains exposés à des environnements sonores, en étudiant plus particulièrement l’un des composants préponderants de ces environnements : les véhicules automobiles.

Le stage se positionne dans la 3eme année de la thèse de Raphael Leiba et vise la validation expérimentale du travail de mesure et de modélisation réalisé jusqu’à présent. Sur la base de ces résultats, le travail consistera essentiellement à mettre en place une expérience perceptive de jugement subjectif de la gêne sonore en milieu urbain. L’expérience pourra se concevoir en situation réelle (in situ) et/ou en situation de laboratoire, impliquant dans ce cas de résoudre les problématiques de restitution sonore d’un environnement sonore complexe.

Le stage sera suivi par N. Misdariis (STMS Ircam), R. Leiba (STMS Ircam - UPMC / IJLRA / MPIA) et R. Marchiano / F. Ollivier (UPMC / IJLRA / MPIA).

Bibliographie

Guastavino, C., Katz, B. F., Polack, J. D., Levitin, D. J., & Dubois, D. (2005). Ecological validity of soundscape reproduction. Acta Acustica united with Acustica, 91(2), 333-341.

Marquis-Favre, C., Premat, E., & Aubrée, D. (2005). Noise and its effects–a review on qualitative aspects of sound. Part II : Noise and annoyance. Acta acustica united with acustica, 91(4), 626-642.

Morel, J., Marquis-Favre, C., & Gille, L. A. (2016). Noise annoyance assessment of various urban road vehicle pass-by noises in isolation and combined with industrial noise : A laboratory study. Applied Acoustics, 101, 47-57.


17. Spatialisation 3D : optimisation aux basses fréquences d’un spatialisateur ambisonique à ordre élevé – bibliothèque ambitools


Site : Trac-Spatialisation 3D : optimisation aux basses fréquences d’un spatialisateur ambisonique à ordre élevé – bibliothèque ambitools
Lieu : Cnam, Laboratoire LMSSC, équipe acoustique
Encadrant : Langrenne Christophe Alexandre Garcia
Dates :01/03/2016 au 30/07/2016
Rémunération :Environ 550 euros
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

La reproduction de champ sonore est un domaine de recherche actif ayant connu de nombreuses avancées ces dernières années. L’ambisonie à ordres élevés fait partie des techniques les plus populaires. Le laboratoire d’acoustique du CNAM dispose d’un dispositif de synthèse en temps-réel de champs sonores 3D constitué de 50 haut-parleurs (permettant une synthèse ambisonique temps réel jusqu’à l’ordre 5) disposés sur une sphère. Ce dispositif a été mis au point dans le cadre d’une thèse sur la synthèse physique adaptative de champs sonores.

Le choix actuel des haut-parleurs constituant la sphère de restitution (HP Aurasound de 2" de diamètre) limite la reconstruction physique à 200 Hz). L’un des premiers objectifs du stage proposé est d’optimiser la réponse du spatialisateur ambisonique aux basses fréquences. Pour cela, l’approche proposée consiste à ajouter des haut-parleurs servant à synthétiser les ordres les plus bas (ordre 0 et ordre 1) grâce à des haut-parleurs rayonnant plus efficacement dans la gamme basse du spectre (20 Hz - 200 Hz). Le système ainsi composé réalisera une synthèse ambisonique par une assemblée hétérogène de transducteurs. Une phase de filtrage en temps réel et de compensation des phases relatives des haut-parleurs est indispensable pour que la synthèse physique reste valide dans une zone spatiale d’écoute la plus étendue possible et sur toute la largeur de la bande fréquentielle (raccordement en amplitude et en phase des deux bandes des deux sous-systèmes). Le noyau NFC-HOA 3D étant d’ores et déjà développé, la bibliothèque Ambitools de Pierre Lecomte pourra être complétée par d’autres utilitaires : panning, passage en 2D, définition de trajectoires.

Ce stage nécessite donc des compétences de traitement du signal, un attrait pour la méthode expérimentale, l’instrumentation et la conception de systèmes de captation. Les outils temps réel de spatialisation développés au CNAM sont basés sur Pure Data, le langage FAUST, et Open Sound Control, logiciel Iannix (trajectoire des sources). Une bonne connaissance du langage Matlab est également demandée.

Bibliographie

Lecomte, P., Gauthier, P. A., Langrenne, C., Garcia, A., & Berry, A. (2015, October). On the Use of a Lebedev Grid for Ambisonics. In Audio Engineering Society Convention 139. Audio Engineering Society.

Lecomte, P. and Gauthier P.A., Real-time 3D Ambisonics using Faust, Processing, Pure Data, and OSC, In Proc. of the 18th Int. Conference on Digital Audio Effects (DAFx-15), Trondheim, Norway, Nov 30 - Dec 3, 2015

Zotter F., Frank M., All-Round Ambisonic Panning and Decoding, in J. Audio Eng. Soc., vol 60(10), 2012, October.

Bibliothèque Ambitools développée par Pierre Lecomte : http://www.sekisushai.net/ambitools/

Logiciel Iannix : http://www.iannix.org


18. Détection et reconnaissance de sons rugueux


Lieu : Institut de Recherche Biomédicale des Armées (IRBA), Brétigny-sur-Orge et Institut de Recherche et Création Acoustique / Musique (IRCAM)
Encadrant : Clara Suied et Isabelle Viaud-Delmon clarasuied@gmail.com
Dates :15/02/2017 au 15/07/2017 (flexible)
Rémunération :579 mensuel
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

En analysant la structure acoustique de sons d’alarmes « naturelles » (cris), Arnal et coll. (2015) ont observé que ces vocalisations naturelles utilisaient une fenêtre de modulation temporelle spécifique, associée au percept de rugosité, et par ailleurs non utilisée pour d’autres vocalisations humaines (parole). Ils ont également pu montrer que des stimuli artificiels créés en respectant ces zones de rugosité induisaient des réactions comportementales plus rapides que des stimuli neutres. Ces réactions comportementales ont été mesurées à l’aide d’une tâche de localisation gauche/droite, par souci écologique (la tâche de localisation est la plus proche de la réponse attendue par l’Humain lorsqu’il entend un cri et doit se tourner et/ou tourner le regard vers l’endroit d’où le cri provient). Il est intéressant de noter qu’au-delà de cette étude récente, la capacité de la rugosité à faciliter les réactions comportementales a été très peu étudiée. Le but de ce stage de Master 2 est d’étendre ces travaux en testant des stimuli similaires (variétés de modulations temporelles induisant différents percepts de rugosité) dans diverses tâches comportementales, afin de vérifier la validité de ce résultat dans des contextes expérimentaux variés. Des tâches de temps de réaction seront utilisées, en comparant des tâches à la complexité croissante (temps de détection simple ; go/no-go ; choix). La comparaison de ces tâches deux à deux devrait nous renseigner sur l’effet des différentes modulations temporelles sur la détection auditive simple, la reconnaissance, ou un processus de décision (voir Luce, 1986). La population considérée est constituée de jeunes auditeurs normo-entendants, sans troubles auditifs antérieurs connus.

Bibliographie

Arnal LH, Flinker A, Kleinschmidt A, Giraud AL, Poeppel D (2015). Human screams occupy a privileged niche in the communication soundscape. Current Biology. doi : 10.1016/j.cub.2015.06.043

Luce RD (1986). Responses Times. New York : Oxford University Press


19. i-score/Oracle


Site : SCRIME
Lieu : SCRIME / LaBRI, Université de Bordeaux 351 cours de la libération 33400 Talence
Encadrant : Myriam Desainte-Catherine, Jean-Michaël Celerier, Shlomo Dubnov.
Dates :01/03/17 au 31/07/17
Rémunération :550 euros
Mots-clés : Parcours ATIAM : Informatique musicale

Description

Il s’agit de rapprocher deux logiciels qui sont complémentaires. D’une part, UCSD dispose du logiciel PyOracle, ecrit en Python, basé sur un système d’apprentissage qui à partir d’un flot sonore issu de la captation du jeu d’un musicien ou bien d’une base de données d’exemples musicaux, permet d’extraire et de modéliser le style musical afin de créer un système génératif contrôlable en temps réel. Ce système est issu d’une longue série de travaux depuis une quinzaine d’années, souvent en collaboration avec l’IRCAM, qui adressent de nombreux problèmes :

- L’extraction en temps réel de paramètres sonores

- La modélisation sous forme d’oracle du style musical dont on peut contrôler le degré de surprise et qui permet la génération de nouveaux exemples musicaux et la resynthèse sonore

- L’analyse prédictive du signal qui permet de construire un oracle performant.

D’autre part, le LaBRI dispose d’un modèle des partitions interactives et du logiciel i-score issu du développement de deux projets ANR en collaboration étroite avec les utilisateurs. Ce logiciel, écrit en C++, est un séquenceur interactif permettant une écriture temporelle précise de paramètres de processus ainsi que d’interactions en temps réel permettant des décalages temporels, des événements conditionnés, ou des choix donnant lieu à différents branchements dans le scénario. Ce système est issu d’une longue série de travaux depuis une quinzaine d’années, en partie en collaboration avec l’IRCAM, qui adressent de nombreux problèmes :

- La conception d’un modèle hybride du temps pour l’écriture et le temps réel

- La conception de l’interface d’écriture intégrant une résolution de contraintes temporelles sur des événements, et permettant la communication intermédia.

- La conception hiérarchique des processus et de leurs données dans un environnement réactif

- La modélisation des programmes obtenus après compilation du scénario et leur vérification

Un pont a été crée entre les deux logiciels en utilisant le protocole OSC pour transférer les paramètres entre i-score et PyOracle. Cette maquette est un système inédit permettant d’improviser aussi avec la forme de la pièce musicale.

Le travail à fournir consiste à aller plus loin dans le couplage des logiciels en travaillant sur les deux points suivants :

- Établir un lien fort entre les logiciels i-score et PyOracle pour permettre facilement l’apprentissage de sons mais aussi d’autres médias, vidéos, gestes.

- Concevoir une version hors ligne pour la composition qui peut créer des contenus musicaux ou multi-média basée sur un script et intégrer les travaux sur la construction et l’improvisation de formes.

Bibliographie

Jaime Arias, Myriam Desainte-Catherine and Shlomo Dubnov, "Automatic Construction of Interactive Machine Improvisation Scenarios from Audio Recordings", MUME 2016, 4th International Workshop on Musical Metacreation, Paris.

Jean-Michaël Celerier, Myriam Desainte-Catherine, and Jean-Michel Coutu- rier, “Graphical Temporal Structured Programming for Interactive Music,” in International Computer Music Conference, Utrecht, Netherlands, Sept. 2016.


20. Improvisation sur une grille harmonique et pattern matching dans le logiciel Djazz


Site : Digital jazz (Improvisation et technologie)
Lieu : IRCAM
Encadrant : Marc Chemillier, EHESS, chemilli@ehess.fr Gérard Assayag, IRCAM, assayag@ircam.fr
Dates :5 mois
Rémunération :oui
Mots-clés : Parcours ATIAM : Informatique musicale

Description

Ce stage a pour but de développer certaines fonctionnalités du logiciel d’improvisation Djazz (digital jazz) qui est le résultat de recherches menées depuis une quinzaine d’années en collaboration par l’IRCAM et l’EHESS pour la mise au point de plusieurs générations de logiciels dédiés à l’improvisation avec ordinateur (OMax, ImproteK, Djazz).

L’une des caractéristique de Djazz (comme de son prédécesseur ImproteK) est d’associer des phrases musicales improvisées avec une grille harmonique sous-jacente. Les données musicales captées par le logiciel sont ainsi étiquetées par des symboles représentant les accords du morceau et le processus de génération consiste à concaténer les séquences musicales mémorisées de telle sorte que les étiquettes suivent les accords de la grille afin de produire une nouvelle improvisation conforme aux harmonies du morceau. La recherche d’une telle suite d’étiquettes s’apparente à un problème de pattern matching (recherche de motif) où l’on cherche des occurrences de la grille que l’on veut jouer (ou de ses fragments) parmi les grilles que l’on a enregistrées et pour lesquelles on dispose de phrases musicales d’improvisation.

Le stage vise deux objectifs. Le premier est théorique et consiste à effectuer une étude bibliographique sur les dernières avancées dans le domaine de la recherche sur le pattern matching. La connaissance a priori de l’ensemble des grilles sur lesquelles on a enregistré des données musicales permet d’envisager des méthodes de prétraitement et d’indexation performants pour optimiser la recherche des motifs présents dans la nouvelle grille sur laquelle on veut improviser. Les notions de longest previous factor, suffix automaton, lowest common ancestor devront être étudiées afin de déterminer les méthodes les plus adaptées à la résolution du problème posé.

Le second objectif est d’ordre pratique et musical. Il consiste à réaliser un prototype dans l’environnement Open Music (Lisp) utilisé par le logiciel Djazz. On s’appuiera sur l’expérience acquise dans le jeu avec ce logiciel en live sur des répertoires de musique variés et avec un corpus d’improvisations relativement important basé sur des transcriptions de grands musiciens de jazz. Ces données font apparaître différentes stratégies dans la manière dont les jazzmen suivent les grilles sur lesquelles ils improvisent (articulation d’une phrase qui respecte les contours harmoniques en s’appuyant précisément sur les notes des accords, ou au contraire phrases conduites selon une logique purement mélodique, par exemple sous forme de riff, au risque d’engendrer des dissonances avec les accords sous-jacents). Le prototype devra proposer des solutions innovantes pour tenir compte de ces différentes stratégies et introduire la possibilité de « relâcher » localement la contrainte harmonique au profit de la continuité mélodique.

Documents : http://digitaljazz.fr/ https://www.facebook.com/improtekjazz/

Bibliographie

M. Crochemore, C. Hancart, and T. Lecroq. Algorithms on Strings. Cambridge University Press, 2007.

Maxime Crochemore, Lucian Ilie, Costas S. Iliopoulos, Marcin Kubica, Wojciech Rytter, Tomasz Walen, Computing the Longest Previous Factor, Eur. J. Comb. 34(1) : 15-26 (2013).

Voir aussi : http://en.wikipedia.org/wiki/Lowest...


21. Stage recherche Deezer : Learning invariants for cover song detection


Site : Research internship - Cover Detection
Lieu : Deezer HQ, Paris
Encadrant : Romain Hennequin, Research Scientist Deezer
Dates :à partir de février 2017
Rémunération :1000€/mois
Mots-clés : Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Automatic music analysis, and in particular Music Information Retrieval (MIR), has recently overcome many theoretical and practical obstacles. Taking advantages of several progress in image processing, natural language processing and other specific developments, MIR is now a well-known research field while being widely used in industrial contexts.

Deezer is one of the leading company in the musical streaming industry, with one of the largest catalog on the market (over 40 Million titles available) and with over 30 million active users spread in more than 180 countries. Automatic music analysis represents an important issue and MIR algorithms a tool of interest.

Organizing and indexing the music catalog is a central topic for Deezer and in particular linking tracks together : Identifying tracks from the same recording is now well managed with audio fingerprinting techniques, but identifying tracks from a same piece of art but from different recordings (different performances of the same piece, covers or even sampling) remains challenging in a large catalog : this task, commonly known as cover song detection, presents a great interest in organizing the Deezer catalog.

The aims of this internship is to propose methods to identify tracks that are different renditions of a same work of art. This includes several sub-task with different complexities such as performance detection (identify tracks that are interpretation of the same musical score), studio/live version detection, rearrangement detection (detect rearranged rendition of a track) or remix detection. These kinds of task are usually handled using hand-design features extraction (such as Harmonic Pitch Class profiles), with musicologic invariants (tempo invariance, key invariance...). Learning optimal features and optimal invariants from a large database of covers does not seem to have been much explored so far and seems to be a promising track. Focus of the internship will be set on accuracy and scalability. Usage of metadatas (title, artist name, lyrics...) will also be considered to robustify cover detection.

The intern will be supervised by research scientists and developers of the R&D team at Deezer. They will provide material and theoretical help for the proposed task. They will also provide cutting edge technology and appropriate calculus power using the ’big data’ cluster available in the company and GPU servers. The intern will be encouraged to propose solutions and work in autonomy. The internship could lead to a paper or publication in conference proceedings.

Profile

Master student with solid background in audio processing and/or machine learning. Strong interest in music would be a serious plus.

Missions : * Do an extensive literature review of cover detection. * Identify key aspects of best performing methods. * Build a new cover detection system with scalability in mind using Machine Learning techniques to design optimal features. * Evaluate and compare the system with state-of-the-art methods.

Required Skills :

* Audio signal processing (time frequency analysis, audio features extraction) * Knowledge of machine learning techniques (SVM, HMM, neural networks...) * Experience in a hi-level scientific language (Python, Matlab...) * Curiosity and motivation

Bibliographie

Joan Serrà, Emilia Gómez, Perfecto Herrera, Zbigniew W. Raś, Alicja A. Wieczorkowska. Audio Cover Song Identification and Similarity : Background, Approaches, Evaluation, and Beyond. Advances in Music Information Retrieval. 2010. Springer Berlin Heidelberg

Julien Osmalskyj, Marc Van Droogenbroeck, Jean-Jacques Embrechts. Enhancing Cover Song Identification with Hierarchical Rank Aggregation. ISMIR 2016 : 136-142

Eric J. Humphrey, Oriol Nieto, Juan Pablo Bello. Data Driven and Discriminative Projections for Large-Scale Cover Song Identification. ISMIR 2013 : 149-154


22. Transcription de drum&bass dans des signaux polyphoniques


Site : Audiogaming
Lieu : Toulouse
Encadrant : Chunghsin YEH
Dates :du 01/02/2017 au 01/08/2017
Rémunération :554,4€
Mots-clés : Parcours ATIAM : Traitement du signal

Description

AudioGaming relève le défi de la post-production audio de demain. Nous développons des outils audio innovants et créatifs déjà utilisés par les plus grands studios (notamment sur Django Unchained de Quentin Tarantino ou par les studios LucasFilm) et travaillons aussi avec des acteurs reconnus du monde de la musique comme ROLI (http://www.weareroli.com/). Nous recherchons un candidat pour un stage niveau Bac+5/Master courant 2016. L’objectif du travail de ce stage est :

  • L’étude de caractéristiques de signaux de batterie et basse.
  • L’étude d’apprentissage automatique et classification.
  • L’étude d’estimation de pitch dans un contexte polyphonique.

Le candidat sera intégré directement dans l’équipe de R&D d’AudioGaming. A partir d’un algorithme GrooveExtractor développé à AudioGaming, il réalisera :

  • Adaptation d’GrooveExtractor dans le contexte polyphonique simple (drum + bass).
  • Adaptation d’GrooveExtractor dans le contexte polyphonique général.
  • Adaptation de paramètres pour différent genres de musique.
    - ¨ Evaluation des algorithmes développés.

Les principaux résultats attendus sont :
- Une bibliographique de transcription de batterie
- Une bibliographique de transcription de basse
- Une base de donnés polyphonique et un prototype fonctionnel


23. SYNTHESE GRANULAIRE ADAPTE AUX TEXTURES SONORES


Site : Audiogaming
Lieu : Toulouse
Encadrant : Chunghsin YEH
Dates :du 01/02/2017 au 01/08/2017
Rémunération :554,4€
Mots-clés : Parcours ATIAM : Traitement du signal

Description

AudioGaming est une entreprise innovante orientée vers l’audio interactif et temps réels. Nous développons une solution logicielle à destination de la post-production et des studios de création (jeux vidéo, cinéma, spectacles vivants, …) afin d’étendre les capacités créative liées à l’audio. Nous recherchons un candidat pour un stage niveau Bac+5/Master courant 2016.

L’objectif du travail de ce stage est :
- L’étude de la synthèse granulaire et des descripteurs audio.
- L’analyse granulaire adaptée aux sons observés.
- La recherche de descripteurs audio pertinents pour un contrôle de synthèse en temps réel.

Le candidat sera intégré directement dans l’équipe de R&D d’AudioGaming et il réalisera :
- Un algorithme d’extraction de grains adaptée aux types de sons.
- Un algorithme de contrôle paramétré par les descripteurs audio.
- Un prototype interactif, temps réel, permettant de tester différentes solutions.

Les principaux résultats attendus sont :
- Une bibliographie d’analyse afin d’identifier automatiquement les composantes principaux de signal.
- Une bibliographie de la synthèse granulaire adaptive.
- Un prototype de synthèse fonctionnel, basé sur ces composantes.


24. MODELISATION ET SYNTHESE DE BRUITS DE PAS


Site : Audiogaming
Lieu : Toulouse
Encadrant : Chunghsin YEH
Dates :du 01/02/2017 au 01/08/2017
Rémunération :554,4€
Mots-clés : Parcours ATIAM : Traitement du signal

Description

AudioGaming est une entreprise innovante orientée vers l’audio interactif et temps réels. Nous développons une solution logicielle à destination de la post-production et des studios de création (jeux vidéo, cinéma, spectacles vivants, …) afin d’étendre les capacités créative liées à l’audio. Nous recherchons un candidat pour un stage niveau Bac+5/Master courant 2016.

L’objectif du travail de ce stage est :

  • La modélisation de bruits de pas.
  • La synthèse hybride de bruits de pas.

Le candidat sera intégré directement dans l’équipe de R&D d’AudioGaming et il réalisera :

  • Une modélisation statistique pour réduire la taille d’une base de données de bruits de pas.
  • Un algorithme de la synthèse hybride basé sur le modèle statistique développé.
  • Une étude comparative basée sur les axes qualité perçue et la consommation mémoire.

Les principaux résultats attendus sont :

  • Un bibliographie de la modélisation statistique.
  • Un bibliographie de la synthèse hybride.
  • Un prototype qui permet de tester la synthèse hybride avec différents modèles statistique.

25. Recommandation musicale personnalisée à l’aide d’une expertise musicale


Site : équipe SAMOVA de l’IRIT
Lieu : laboratoire IRIT Université Toulouse 3- Paul Sabatier, 118 route de Narbonne Toulouse 31062
Encadrant : Julien Pinquier et Christine Sénac julien.pinquier@irit.fr christine.senac@irit.fr
Dates :5 à 6 mois à partir de février/mars 2017
Rémunération :580 euros /mois
Mots-clés : Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte de l’étude Aider l’utilisateur à sélectionner la musique à écouter, tel est l’enjeu de la recommandation musicale. A côté des plateformes, comme Soundcloud, qui utilisent uniquement des filtres collaboratifs afin d’identifier les utilisateurs aux profils similaires et ainsi leur recommander les mêmes morceaux, certains sites de streaming, comme Deezer ou Spotify, commencent à utiliser à la fois des meta-data (album, artiste, année, durée…) et des données extraites automatiquement du signal par une approche "basée contenu" qui leur sont vendues par The Echo Nest. L’approche basée contenu adresse à la fois des problématiques liées à l’analyse acoustique et à l’apprentissage de similarités entre deux morceaux [1]. Quelques nouveaux travaux s’appuient sur les méthodes de deep learning pour chercher à analyser la perception musicale sans utiliser la couche sémantique [2], [4].

Principaux objectifs de l’étude Afin de s’éloigner d’une recommandation uniformisée, apprendre les goûts de l’utilisateur devient primordial afin de l’aider dans son organisation et lui recommander l’écoute d’enregistrements non disponibles dans sa bibliothèque personnelle et qui pourraient l’intéresser. D’un point de vue technologique, extraire des descripteurs de haut niveau et compréhensibles tels que l’instrumentation, les thèmes lyriques… reste un challenge. De plus, corréler les descripteurs sonores de bas-niveau - plus faciles à extraire- aux goûts de l’utilisateur est un challenge encore plus ardu, notamment pour des non musiciens. Aussi, nous proposons d’associer à un système de recommandation basé contenu, l’expertise musicologique de Ludovic Florin (laboratoire LLA CREATIS de l’université Jean Jaurès Toulouse 2) qui devrait aider à relier causalement les descripteurs bas niveau du signal aux goûts de l’utilisateur.

Travail demandé

Ce travail fera suite à un stage de M2 effectué en 2016 sur la classification en genres musicaux et sur une pré-étude de la recommandation musicale [3]. Il s’articulera autour de 5 phases principales :

-  Bibliographie sur la recommandation musicale et proposition d’ un corpus de musiques en adéquation avec les objectifs de l’étude (un corpus existant dans l’équipe pourra servir de base).

-  Développement d’un dispositif d’écoute de musique afin de collecter de manière non intrusive les goûts et la manière d’écouter des usagers. Ce dispositif permettra de proposer via internet l’écoute d’un sous–ensemble de musiques du corpus à des usagers. L’usager pourra naviguer parmi l’ensemble des musiques proposées à sa guise : écoute complète/partielle, réécoute d’un morceau... Un mouchard permettra de générer les informations en lien avec les goûts de l’utilisateur. Recherche de critères expert (définis par un musicien) de classification sur ce corpus.

-  Phase de passation par un public aussi large que possible via le dispositif développé.

-  Mise en forme des informations récoltées via le dispositif et analyse des résultats obtenus : l’expertise musicale devrait permettre d’orienter de manière efficace les traitements statistiques à effectuer ; les résultats de ces traitements devraient permettre de valider les hypothèses émises quant aux critères experts.

-  Comparaison des critères experts et des critères non experts (de l’usager) dans le cadre de la classification. Cette comparaison se fera à grande échelle à l’aide d’une analyse automatique visant à rechercher dans le signal des corrélations susceptibles d’identifier les propriétés perçues dans la diversité du choix des utilisateurs. Une approche deep learning pourra être envisagée à ce stade.

Bibliographie

[1] C. , D. Tardieu, and G. Peeters. Gmm supervector for content based music similarity. In Proc. of DAFx (International Conference on Digital Audio Effects), pages 425–428, Paris, France, 2011.

[2]A Van den Oord, S Dieleman, B Schreeuwen. Deep content-based music recommendation. Advances in Neural Information Processing Systems, 2643-2651, 2013

[3] Florian Mouret, Apprentissage de similarités « multi-niveaux » pour la suggestion de contenus musicaux, rapport de stage ENSEEIHT 2016 ftp://ftp.irit.fr/IRIT/SAMOVA/INTERNSHIPS/florian_mouret_2016.pdf

[4] Domingues, M. A., Gouyon F., Jorge A. M., Leal J. P., Vinagre J., Lemos L., & Sordo M.Combining Usage and Content in an Online Recommendation System for Music in the Long-Tail. International Journal of Multimedia Information Retrieval, vol. 2, issue Hybrid Music Information Retrieval, 3-13, 2013


26. Synthèse sonore de gongs et de cymbales : prise en compte des variations d’épaisseur.


Site : page personnelle C. Touzé
Lieu : ENSTA ParisTech, IMSIA, Chemin de la hunière, Palaiseau
Encadrant : Cyril Touzé, prof. à l'ENSTA ParisTech
Dates :du 01/03/2016 au 15/07/2016
Rémunération :gratification stagiaire
Mots-clés : Parcours ATIAM : Acoustique

Description

La synthèse sonore de gongs et de cymbales est un problème numériquement difficile à cause de la non linéarité forte mise en jeu et de la nature de la dynamique vibratoire, qui implique une turbulence d’ondes avec cascade d’énergie des basses vers les hautes fréquences. Récemment, une méthode numérique robuste, reposant sur une approche modale et un schéma conservatif pour l’intégration temporelle, ont permis de donner des sons très réalistes grâce en particulier à la prise en compte fine des phénomènes d’amortissement. Cette méthode est désormais implémentée dans un code générique open source de simulation de plaques non linéaires permettant de traiter différentes géométries, ainsi que d’ajouter une imperfection géométrique et de prendre en compte des conditions aux limites diverses. Des sons de synthèse peuvent être écoutés à l’URL suivant : http://perso.ensta-paristech.fr/∼...

Le but de ce stage est d’incorporer à la méthode la prise en compte de l’épaisseur variable. On sait que dans les gongs et les cymbales, l’épaisseur n’est pas constante le long d’un rayon, et ce phénomène contribue à la qualité sonore, particulièrement pour certaines cymbales, plus épaisses au centre au niveau de la cloche, et plus fines au bord pour faire ressortir plus aisément les sons de type "crash". Pour ce faire, on s’intéressera aux équations de plaque de von Kármán avec épaisseur variable, et une méthode de résolution sera mise au point. Les résultats de la méthode seront incorporées dans le code de calcul général et une étude paramétrique de l’effet de l’épaisseur variable sera menée. Si le temps le permet, des comparaisons fines avec des sons expérimentaux seront envisagées.

Bibliographie

O. Cadot, M. Ducceschi, T. Humbert, B. Miquel, N. Mordant, C. Josserand and C. Touzé : Wave turbulence in vibrating plates, Handbook of Applications of Chaos theory, C. Skiadas, Editor, Chap- man and Hall/CRC, ISBN 9781466590434, Juin 2016.

M. Ducceschi and C. Touzé : Modal approach for nonlinear vibrations of damped impacted plates : Application to sound synthesis of gongs and cymbals, Journal of Sound and Vibration, vol. 344, 313- 331, 2015.

C. Touzé, S. Bilbao and O. Cadot : Transition scenario to turbulence in thin vibrating plates, Journal of Sound and Vibration, vol. 331(2), 412-433, 2012.


27. Détermination des doigtés d’une clarinette


Lieu : Le stage aura lieu au Laboratoire de Mécanique et Acoustique (LMA), dans l’équipe Sons. Adresse : LMA, 4 impasse Nikola Tesla, 13453 Marseille.
Encadrant : Christophe Vergez (chercheur CNRS, LMA, vergez@lma.cnrs-mrs.fr) et Samy Missoum (Associate Professor, Université d’Arizona, smissoum@email.arizona.edu).
Dates :du 06/02/2017 au 07/07/2017
Rémunération :selon la tarification en vigueur au CNRS (environ 550 euros/mois)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Dans la perspective d’une utilisation des instruments à vent traditionnels comme de véritables contrôleurs MIDI, différents capteurs sont actuellement développés au LMA afin d’estimer les valeurs de différents paramètres de contrôle modifiés par le musicien. Ce stage se focalise sur l’estimation des doigtés sans avoir à équiper les pistons ou clés de capteurs dédiés. On testera différentes solutions permettant de discriminer les différents doigtés. Il s’agit donc d’un problème de classification.

Dans des situations idéales (pas de limite sur le niveau de la source, pas de bruit extérieur, pas de contrainte sur le temps de classification) une analyse d’indicateurs calculés à partir de chaque réponse mesurée est sans doute suffisante. L’objectif du stage est de progressivement s’éloigner du cas idéal et d’identifier et évaluer des méthodes de classification qui peuvent réaliser la tâche de classification en un temps minimal. On explorera par exemple des méthodes de type SVM, random forest, etc Comment classifier correctement les doigtés en temps réel, lorsque le niveau de la source est suffisamment bas pour être inaudible du musicien, et que le test a lieu dans un environnement bruité (autres musiciens autour) ?

Le stage aura lieu au LMA où un prototype de clarinette modifiée est disponible. Une évolution du prototype peut aussi être envisagée pendant le stage. Le stage sera co-encadré à distance par Samy Missoum, Associate Professor à l’Université d’Arizona, et spécialiste des méthodes de classification.

Type de travail (théorique, numérique, expérimental) : Théorique pour comprendre les méthodes de classification, numérique pour les mettre en œuvre, expérimental (dans une moindre mesure) pour faire les expériences.

Compétences requises : Goût pour l’acoustique musicale, compétences en classification et/ou apprentissage appréciées mais pas requises.


28. L’action du musicien à travers l’analyse des modèles de la production du son


Lieu : Le stage aura lieu au Laboratoire de Mécanique et Acoustique (LMA), dans l’équipe Sons. Adresse : LMA, 4 impasse Nikola Tesla, 13453 Marseille.
Encadrant : Christophe Vergez (chercheur CNRS, LMA, vergez@lma.cnrs-mrs.fr) et Pierre Vigué (doctorant, vigue@lma.cnrs-mrs.fr).
Dates :du 06/02/2017 au 07/07/2017
Rémunération :selon la tarification en vigueur au CNRS (environ 550 euros/mois)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Dans le cas des instruments de musique entretenus (instruments à vent ou à cordes frottées), les liens entre les paramètres de contrôle (ajustés par le musicien) et les caractéristiques du son produit (fréquence, spectre) sont encore mal connus. Les modèles mathématiques correspondants sont en effet des équations différentielles non linéaires pour lesquelles il n’existe pas de solution analytique. L’objectif de ce stage est d’aborder une des trois problématiques ci-dessous selon la sensibilité du candidat.

1/ Modes de jeu d’un cuivre : production d’"harmoniques" et de régimes multiphoniques

En conservant le même doigté (trompette) ou la même position de la coulisse (trombone), le cuivriste est capable de jouer plusieurs notes (ou "harmoniques" en langage musical) selon le mode acoustique principalement impliqué dans la production du son. Comment ? Grâce à un modèle simple où les lèvres du cuivriste sont modélisées par un système simple à un degré de liberté, la dépendance de la note jouée par rapport à la fréquence de résonance mécanique des lèvres sera étudiée. En particulier, la transition entre "harmoniques" lorsque la fréquence de résonance des lèvres varie sera analysée en termes d’échange de stabilité entre les différentes solutions périodiques.

Un autre mode de jeu à étudier concerne la production de sons non périodiques : il est possible d’obtenir volontairement de tels régimes en chantant dans l’instrument (on parle alors de multiphoniques) mais ils sont parfois subis par le musicien lorsque la fatigue musculaire l’empêche de maintenir une tension des lèvres adaptée à la production du son.

2/ Modes de jeu au saxophone : notes et multiphoniques

Des expériences sur bouche artificielle ainsi que des simulations temporelles ont déjà montré que l’apparition de régimes quasi-périodiques au saxophone (qualifiés de multiphoniques), était fortement influencée par la valeur des paramètres de contrôle ajustés par le musicien pendant le jeu, et par les paramètres résultant de la forme de l’instrument, par exemple l’inharmonicité entre les deux premières fréquences de résonance de la colonne d’air. Au delà de l’observation de régimes périodiques ou quasi-périodiques en fonction des valeurs de paramètres, l’objectif du stage consiste à comprendre comment les régimes périodiques et quasi-périodiques sont liés, et comment les régimes quasi-périodiques permettent éventuellement de passer d’une note à une autre par variation continue de certains paramètres.

3/ Modes de jeu d’un instrument au violon : notes et sons sous-harmoniques

On sait expérimentalement qu’un(e) violoniste est capable de produire des notes une octave en dessous de celles auxquelles on peut s’attendre d’après la valeur de la fréquence de résonance la plus basse de la corde. L’analyse d’un modèle simple de corde frottée ne comportant que des modes de flexion de la corde montre qu’un tel modèle n’est pas suffisant pour expliquer ces sons sous-harmoniques. Par contre, des observations expérimentales montrent que les mouvements en torsion de la corde sont plus importants lorsque ces notes sous-harmoniques sont jouées. L’objectif du stage consiste à écrire un modèle simple de corde frottée comportant un mode de flexion et un mode de torsion de la corde, et à analyser ses régimes d’oscillation possibles : ce modèle permet-il d’expliquer la production des notes sous-harmoniques ?

La problématique retenue parmi les trois ci-dessus, sera abordée grâce à la continuation de solutions par Méthode Asymptotique Numérique (MAN), ces solutions, périodiques ou quasi-périodiques étant elles-mêmes représentées par équilibrage harmonique. Cette approche permet d’obtenir directement des branches de solutions, dont il est possible dans le cas périodique de calculer la stabilité. Les résultats pourront aussi être comparés à ceux obtenus par simulation temporelle (synthèse sonore).

Type de travail (théorique, numérique, expérimental) : Théorique pour comprendre les méthodes et modèles, numérique pour leur mise en œuvre.

Compétences requises : Physique des instruments de musique, goût pour la modélisation et l’analyse des comportements des modèles.


29. Influence émotionnelle du detuning dans la voix chantée (psychoacoustique/musique/émotions)


Site : CREAM
Lieu : Equipe CREAM/PDS, IRCAM (Paris)
Encadrant : Jean-Julien AUCOUTURIER (Chargé de recherche CNRS) & Louise GOUPIL (Postdoctorante CNRS)
Dates :du 01/03/2017 au 31/07/2017
Rémunération :taux national (541,06€/mois)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Project description :

Our capacity to communicate emotions in music has been the subject of impassionned psychology and neuroscience research in the past two decades. Music’s expressive acoustic cues are now widely believed to imitate those used in speech prosody, with e.g. fast pace and high intensity for happy music/speech, and monotonous pitches and dark timbres for sad music/speech (Juslin & Laukka, 2003). However, there has been very limited rigorous psychoacoustical research on how exactly speech emotional cues can be used in music, and vocal music in particular.

This internship proposes to look at the specific use of pitch. In speech, it is widely accepted that higher pitches are linked with positive valence (see e.g. Aucouturier et al, 2016). It would thus be predicted that detuning a singer by a few cents above the instrumental background would make a musical performance happier. However, in music, pitch relations obey to strict constraints of consonance, which do not exist in speech. Detuning a singer by one full semitone above the background results in very dissonant music, which is inversely correlated with positive emotional judgements (Cousineau, McDermott & Peretz, 2012). How these two mechanisms (higher pitch -> positive, higher dissonance
- > negative) interact is very important for overall theories of speech/music emotions, yet it remains almost completely unknown (Zatorre & Baum, 2012).

Student role in the project :

The project will consist of a series of psychoacoustical experiments to measure the link between increased/decreased pitch in speech and singing voice, as well as in simpler control stimuli (like pure tones). The student will participate in the experimental design (using skills in experimental psychology), stimulus preparation (using skills in sound/music production, and tools like AudioSculpt and Ableton live), experiment building (using skills in computer programming, and language like Python/psychopy), data collection (1-hour experiment on 20+ participants), data analysis (using skills in statistics, and tools like Python/pandas), and manuscript preparation.

Student’s profile :

We are looking for a Master’s student with strong acoustic/audio signal processing/music production skills and a strong interest in experimental psychology and psychoacoustics. Experience with music production tools like Max and Ableton Live, and programming experience in Matlab or Python, will be appreciated. Any experience with experimental data collection, listening tests or cognitive modeling, while optional, will be also appreciated.

How to apply :

Send a CV and detailed cover letter by email to Louise Goupil louise.goupil@ircam.fr & Jean-Julien AUCOUTURIER, aucouturier@gmail.com

Bibliographie

Aucouturier, J.J., Johansson, P., Hall, L., Segnini, R., Mercadié, L. & Watanabe, K. (2016) Covert Digital Manipulation of Vocal Emotion Alter Speakers’ Emotional State in a Congruent Direction. Proceedings of the National Academy of Sciences, vol. 113 no. 4

Cousineau, M., McDermott, J. H., & Peretz, I. (2012). The basis of musical consonance as revealed by congenital amusia. Proceedings of the National Academy of Sciences, 109(48), 19858-19863.

Juslin, P. & Laukka, P. (2003) Communication of emotions in vocal expression and music performance : Different channels, same code ?, Psychological bulletin, vol. 129, no. 5, p. 770.

Zatorre, R. J. & Baum, S. R. (2012). Musical melody and speech intonation : Singing a different tune. PLoS Biol, 10(7), e1001372.


30. Notations graphiques programmables pour la composition assistée par ordinateur


Lieu : IRCAM 1, place Igor Stravinsky 75004 Paris
Encadrant : Jean Bresson
Dates :6 mois entre le 01/02/2017 et le 31/08/2017
Rémunération :550 environ
Mots-clés : Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Ce stage de recherche et développement se place dans les domaines de la composition assistée par ordinateur et de la notation musicale. Au coeur des activités de l’équipe Représentations Musicales (repmus.ircam.fr), les environnements de composition assistée par ordinateur permettent aux compositeurs de produire des structures musicales à l’aide de formalismes et techniques de programmation et de calcul, en particulier via la programmation visuelle [1]. L’environnement OpenMusic [2] développé dans ce contexte est aujourd’hui une référence dans le domaine et compte une importante communauté d’utilisateurs dans le monde entier [3]. Cet environnement de programmation visuelle dédié à la composition propose un certain nombre d’éditeurs graphiques pour la représentation et la notation des données et processus musicaux [4].

Dans ce stage nous nous intéresserons spécifiquement aux notations graphiques personnalisables. La notation est un champ de recherche en pleine expansion dans les domaines de l’informatique musicale, mais aussi de la musicologie et des sciences humaines, posant de nombreux défis techniques, et parfois épistémologiques [5,6].

Le stage se fera en relation avec le compositeur Rama Gottfried qui sera en résidence entre l’IRCAM et le ZKM (Karlsruhe, Allemagne) au printemps/été 2017. Il inclura donc une forte composante applicative (développement, IHM, étude de terrain) et un lien immédiat avec un projet de production. Le principal objectif dans ce contexte sera de proposer un système permettant au compositeur (et à tous les utilisateurs) de créer ses propres symboles et autres éléments graphiques [voir ici un exemple de partition de Rama Gottfried : http://www.ramagottfried.com/flint.... ] et de les manipuler dans un processus compositionnel conduisant à la production d’une partition musicale, lié à des données structurées et manipulables dans le langage de programmation visuelle (dans le cas particulier de ce projet, la notation aura pour vocation principale de contrôler des processus externes via OSC). D’autres applications pourront être envisagées pour la création de partitions symboliques dédiées au contrôle d’outils développés à l’IRCAM, tels que Improtek/OMax [7] ou Antescofo [8].

Bibliographie

[1] Gérard Assayag : "Computer Assisted Composition Today". 1st Symposium on Music and Computers. Applications on Contemporary Music Creation ,Esthetic and Technical aspects. Corfu, Greece,1998.

[2] Jean Bresson, Carlos Agon, Gérard Assayag : "OpenMusic. Visual Programming Environment for Music Composition, Analysis and Research." ACM MultiMedia (OpenSource Software Competition), Scottsdale, USA, 2011.

[3] Carlos Agon, Gérard Assayag, Jean Bresson (dir.) The OM Composer’s Book (3 volumes). Editions Delatour / Ircam Centre Pompidou, 2006, 2008, 2016.

[4] Gérard Assayag, Carlos Agon, Joshua Fineberg, Peter Hanappe : "Problèmes de notation dans la composition assistée par ordinateur". Acte des Rencontres Musicales Pluridisciplinaires, Musique et Notation. Lyon, 1997.

[5] Groupe de travail AFIM "Les nouveaux espaces de la notation musicale" : http://notation.afim-asso.org

[6] Conférences TENOR "Technologies for Music Notation and Representation" (2015,2016) : http://www.tenor-conference.org

[7] Jérôme Nika, Marc Chemillier : "Improvisation musicale homme-machine guidée par un scénario temporel", Technique et science informatique, special issue on Computer music, vol. 33, n° 7-8 , 2014.

[8] Arshia Cont : "ANTESCOFO : Anticipatory Synchronization and Control of Interactive Parameters in Computer Music". International Computer Music Conference (ICMC), Belfast, Ireland, 2008.


31. Analyse du geste du harpiste par synthèse sonore


Lieu : Télécom ParisTech / Lutherie Acoustique Musique (LAM, UMPC)
Encadrant : Jean-Loïc Le Carrou, Bertrand David
Dates :01/02/2016 au 28/07/2016
Rémunération :700€
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Au cours de la phase d’apprentissage de leur instrument, les musiciens développent une expertise gestuelle importante. Celle-ci leur permet d’exécuter précisément le mouvement nécessaire à la production sonore désirée. Dans le cadre des instruments à cordes pincées, objet de la présente étude, l’instrumentiste amène la corde vers un état particulier définissant ses oscillations libres futures. Ainsi, ses conditions initiales sont caractéristiques du musicien et influent sur le son produit. Comment juger de cette influence ? Ce que nous percevons de caractéristique dans le flux audio relève bien sûr de l’identité de l’instrument mais également de cette interaction instrument/instrumentiste. Nous nous proposons dans ce stage de réaliser une synthèse sonore capable de mettre en évidence l’apport d’un modèle d’interaction et d’un vocabulaire de geste. Lors d’une expérience récente, un protocole de mesures a été spécialement développé pour capter de manière non intrusive le geste des harpistes lors de la pratique de l’instrument dans un contexte de jeu réaliste [1]. La trajectoire d’une sélection de cordes, au niveau de la console, a ainsi été captée par un système optique spécialement développé [2]. La segmentation des données, la détection du point de pincement et la reconstruction des trajectoires de pincement ainsi que des efforts d’interaction ont fait l’objet d’un stage précédent [3] et sont donc disponibles. Dans ce stage nous envisageons une analyse approfondie des données (près de 7000 pincements) pour caractériser finement la trajectoire du doigt en contact avec la corde et les conditions initiales de lâché de corde pour chaque musicien en fonction du contexte musical (tempo, type de mouvement, nuances,...). Dans un premier temps, des méthodes de réduction de données telle que la décomposition en matrice positives (NMF) ou l’analyse en composantes principales (ACP) permettront d’extraire des trajectoires type [4], ce qui permettra de constituer le vocabulaire de la synthèse. Cette représentation des données permettra par exemple d’étudier les variations du musicien en fonction du contexte musical (tempo, nuance,…). L’enchaînement temporel entre les différentes trajectoires (une par note donc) sera représenté à l’aide de modèle de Markov de manière à pouvoir réaliser la synthèse de phrases musicales complètes. Pour réaliser la synthèse sonore, on pourra s’appuyer sur des techniques spectrales hybrides (incorporant des mesures) comme dans [5] ou des modèles modaux comme dans [6]. Dans un premier temps le couplage entre les différentes cordes ne sera pas pris en compte. L’enjeu du stage sera donc d’inclure dans ces systèmes de synthèse une modélisation des pincements issus de l’analyse de la base de données mesurées.

Bibliographie

[1] I. Fransciosi, Caractérisation de la dépendance geste/tessiture du pincement d’une corde de harpe, Stage de Master 1 de l’Université Pierre et Marie Curie, 2014.

[2] J-L. Le Carrou, D. Chadefaux, L. Seydoux, B. Fabre. A low-cost high-precision measurement method of string motion. Journal of Sound and Vibration, 333(17), pp. 3881-3888 (2014).

[3] M. Pàmies-Lilà, Caractérisation du pincement de la harpe de concert en contexte musical, Stage de Master 2 de l’Université Pierre et Marie Curie, 2015.

[4] Liutkus, A., Drémeau, A., Alexiadis, D., Essid, S., & Daras, P., Analysis of dance movements using Gaussian processes. In Proceedings of the 20th ACM international conference on Multimedia (pp. 1375-1376). ACM. 2012

[5] Woodhouse, J., On the synthesis of guitar plucks Acta Acustica united with Acustica, S. Hirzel Verlag, 2004

[6] M. Marques, J. Antunes, V. Debut, Coupled Modes and Time-Domain Simulations of a Twelve-String Guitar with a Movable Bridge. Stockholm Music Acoustics Conference (SMAC 2013), Stockholm, Sweden, 30 July-3 August 2013.


32. Sonification pour une tâche de guidage dans un espace 2D


Site : Sons
Lieu : Laboratoire de Mécanique et d’Acoustique (LMA) – Marseille
Encadrant : Gaëtan Parseihian et Richard Kronland-Martinet
Dates :du 01/02/2017 au 31/07/2017
Rémunération :CNRS standard (546€/mois + 50% des transports)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte : De nombreuses études ont permis de démontrer l’efficacité du son pour permettre, par exemple, aux chirurgiens d’effectuer un geste particulier [1], ou à des personnes victimes d’un accident vasculaire cérébral de faire de la rééducation motrice [2]. Pourtant, malgré des résultats très prometteurs, il n’existe aucun consensus sur les attributs sonores qui favorisent le guidage ainsi que sur leur influence sur les tâches à effectuer. Cette absence de consensus s’explique par le caractère trop spécifique des applications visées dans les études sur le guidage sonore qui complexifie la généralisation des résultats à d’autres applications et représente un frein majeur à la valorisation industrielle de la sonification. Description : Dans le cadre du projet ANR-SoniMove, nous cherchons à conduire des études formelles d’évaluation de stratégies sonores permettant de guider avec le son. Une première étude a permis de classer les principaux attributs perceptifs du son (hauteur, tempo, sonie, brillance, rugosité, inharmonicité, etc.) en fonction de leur efficacité en termes de rapidité et de précision à guider l’utilisateur vers une cible statique en 1D [3]. Pour ce stage, nous souhaitons étendre cette étude et travailler sur les combinaisons de plusieurs stratégies sonores afin de guider l’utilisateur dans un espace 2D. Avec l’augmentation d’informations à transmettre, différentes approches peuvent être envisagées : utilisation d’un attribut perceptif appliqué à deux sons différents (un par dimension) ou utilisation de deux attributs perceptifs appliqués à un seul son (par exemple utilisation du pitch pour la hauteur et du tempo pour la largeur), etc. L’objectif de ce stage est de mettre en place une expérience perceptive sous la forme d’un jeu sonore visant à trouver des cibles cachées dans un environnement 2D grâce aux seules informations auditives. Il s’agira de définir les paramètres à sonifier afin d’informer au mieux l’utilisateur de sa position à tout moment par rapport à la cible et de concevoir plusieurs métaphores de sonification en se basant sur les résultats préliminaires obtenus dans l’étude sur le guidage en 1D [3] .Ce jeu sonore sera implémenté dans Max/MSP. Enfin, il s’agira de mettre en place un protocole expérimental permettant de comparer les stratégies de guidage et d’évaluer leur influence sur le comportement moteur de la personne guidée.

Type de travail : Théorique et expérimental Compétences requises : Traitement du signal, perception auditive, synthèse sonore, programmation (Matlab et/ou Max/MSP), autonomie et goût pour l’expérimentation. Possibilité de poursuite en thèse : Sur contrat doctoral

Bibliographie

[1] B. Cho, N. Matsumoto, S. Komune, M. Hashizume et N. Matsumoto : Surgical navigation system for guiding exact cochleostomy using auditory feedback : A clinical feasibility study. BioMed Research International, Article ID 769659, 2014.

[2] D. Scholz, L. Wu, J. Pirzer, J. Schneider, J. Rollnik, M. Grossback et E. Altenmuller : Sonification as a possible stroke rehabilitation strategy. Frontiers in neuroscience, 8(332), 2014.

[3] G. Parseihian, C. Gondre, M. Aramaki, S. Ystad et R. Kronland Martinet : Comparison and Evaluation of Sonification Strategies for Guidance Tasks. IEEE Transactions on Multimedia, vol. 18 (4), pp. 674-686, 2016. http://kronland.fr/publications/com...


33. Comment joue-t-on de la trompette ? Mesures in vivo avec trompette instrumentée


Lieu : Laboratoire de Mécanique et Acoustique (LMA), dans l’équipe Sons. Adresse : LMA, 4 impasse Nikola Tesla, 13453 Marseille.
Encadrant : Christophe Vergez (chercheur CNRS, LMA) et Jean-François Petiot (Professeur, Ecole Centrale Nantes) vergez@lma.cnrs-mrs.fr, Jean-Francois.Petiot@irccyn.ec-nantes.fr Tel : 04.84.52.42.05
Dates :du 06/02/2017 au 07/07/2017
Rémunération :selon la tarification en vigueur au CNRS (environ 550 euros/mois)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Nous proposons de mesurer puis d’analyser l’évolution en temps-réel de certains paramètres essentiels contrôlés par les trompettistes en cours de jeu. Le but est de comprendre les stratégies mises en œuvre par les trompettistes pour obtenir un son ou un effet sonore particuliers.

Différents aspects seront abordés pendant le stage :

1/ Mesures et analyses des données recueillies avec la trompette instrumentée. C’est le point principal du stage. Sur un panel de trompettistes, pour quelques exercices simples à définir (par exemple crescendo et détaché, passage grave aigu, etc). Pour l’analyse de données on pourra : visualiser les corrélations entre les paramètres de contrôle (analyse de séries temporelles), visualiser les corrélations entre les causes (les paramètres de contrôle) et l’effet (son produit), modéliser l’effet (le son produit) par les causes (paramètres de contrôle de la trompette), étudier les variabilités interindividuelles entre les modèles de trompettistes.

2/ Poursuite du développement du capteur de débit intégré à l’embouchure (suite d’un stage L3 de l’an passé), ce qui permettra de gagner en compacité et temps de réponse par rapport au capteur thermique inséré actuellement dans le pavillon.

3/ Réflexion sur les applications pédagogiques imaginables à partir de la trompette instrumentée, par exemple sous forme d’applications fonctionnant en temps réel sur smartphone/tablette.

Type de travail (théorique, numérique, expérimental) : Expérimental pour réaliser les expériences, théorique pour comprendre les méthodes d’analyse, numérique pour leur mise en œuvre.

Compétences requises : Connaissances en acoustique musicale et physique des instruments à vent / Goût pour le travail expérimental : une expérience en instrumentation sera appréciée / La pratique de la trompette est un plus mais n’est pas obligatoire.

Poursuite possible en thèse : oui


34. Les cordes sympathiques dans les cordophones à claviers rectangulaires


Site : Trac-Les cordes sympathiques dans les cordophones à claviers rectangulaires
Lieu : Equipe LAM, Institut Jean Le Rond ∂’Alembert, UMR CNRS 7190, UPMC, place Jussieu, Paris.
Encadrant : Christophe d’Alessandro et Jean-Loïc Le Carrou
Dates :01/02/2017 au 01/08/2017
Rémunération :sur la base des indemnités de stage CNRS, environ 500 €/mois, et transport.
Mots-clés : Parcours ATIAM : Acoustique

Description

La géométrie des cordophones à clavier rectangulaire (clavicorde, piano carré, pantaléon) divise les cordes en deux parties, par rapport au chevalet. La partie vibrante, à gauche du chevalet est généralement munie d’un système d’étouffoir qui stoppe la vibration lorsque la touche est relevée (sauf pour le pantaléon). C’est cette partie de la corde, du sillet au chevalet, qui est excitée lorsqu’on abaisse la touche. La partie droite des cordes, souvent appelée « partie morte », du chevalet aux chevilles, est mise en vibration par le mouvement du chevalet, lorsque la partie gauche vibre.

La vibration sympathique de la partie droite des cordes donne un effet de réverbération, nettement audible. Dans certains cas l’effet est recherché, pour renforcer le son, dans d’autres cas les cordes sympathiques sont étouffées, pour ne pas brouiller le son. Cet effet se retrouve aussi bien sur le clavicorde (corde frappée par un tangent, qui fait aussi office de sillet), que sur le piano carré (corde frappée par un marteau en général souple, et munie d’un étouffoir), ou le pantaléon (corde frappée par un marteau dur, sans étouffoir).

Le but de ce stage est de modéliser la vibration sympathique des cordes, et de la mesurer dans le cas du clavicorde. A partir d’un modèle mécanique (développé pour la harpe et la guitare portugaise), la transmission du son par le chevalet peut être étudiée, en fonction de la mobilité du chevalet sur la table d’harmonie. L’amplitude du mouvement des cordes sympathiques sera calculée, et confronté à des mesures de vibration de la table d’harmonie. Le son rayonné sera mesuré et confronté aux prédictions théoriques. Les conséquences musicales et organologiques seront discutées.

Bibliographie

C. d’Alessandro, B. F.G. Katz, “Tonal quality of the clavichord : the effect of sympathetic strings”, proceedings of . International Symposium on Musical Acoustics, ISMA 2004, Nara, Japon, 1-P1-7, 2004, 4 pages.

C. d’Alessandro "On the dynamics of the clavichord : From tangent motion to sound" J. Acoust. Soc. Am., 128(4), 2010, p. 2173−2181

JL. Le Carrou, F. Gautier, R. Badeau. Sympathetic string modes in the concert harp. Acta Acustica united with Acustica, Hirzel Verlag, 2009, 95 (4), p.744—752.

V. Debut, M. Carvalho, M. Marques et J. Antunes. Three-dimensional time-domain simulations of the string/soundboard coupled dynamics for a twelve-string Portuguese guitar. In Congrès Français d’Acoustique, Poitiers, 2014


35. Mesures de similarité rythmique


Site : équipe Vertigo
Lieu : Laboratoire Cédric, Conservatoire National des Arts et Métiers (75003 Paris)
Encadrant : responsable: Philippe Rigaux (CNAM) philippe.rigaux@cnam.fr co-responsable: Florent Jacquemard (Ircam, INRIA) florent.jacquemard@inria.fr
Dates :du 1er février 2017 au 31 juillet 2017
Rémunération :gratification au montant en vigueur
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Informatique musicale

Description

Ce sujet se situe dans le domaine des bases de partitions numériques et de la musicologie calculatoire. Il consiste à produire des indicateurs synthétiques représentant la structure rythmique d’une partition ou d’un fragment de partition, avec pour objectifs (1) d’évaluer formellement la complexité rythmique, (2) de produire des méthodes de simplification permettant d’unifier deux fragments proches rythmiquement, (3) de proposer des mesures de similarité pouvant servir de support à des recherches approchées dans de grandes bases de partitions.

Le stage s’intégrera au projet Neuma [NEUMA], une bibliothèque de corpus anciens ou rares aux formats MusicXML et MEI. Deux tâches sont essentielles dans le cadre d’un tel projet : le traitement de requêtes [FRT16a, FRT16b], pour la recherche d’extraits dans des partitions, et la fouille de données pour l’extraction de descripteurs à des fins d’analyse musicologique.

Le stage étudiera ces problèmes sous l’angle de la dimension rythmique, un aspect essentiel et complexe de la musique et de sa notation. On étudiera le problème de la complexité rhythmique, notion qui a surtout été abordée du point de vue performatif ou perceptif. Son étude sous l’angle de la notation musicale pourra être d’un grand intérêt en musicologie.

On s’intéressera également aux mesures de similarité rythmique. Plusieurs approches ont été proposées pour la similarité mélodique, principalement pour des tâches de reconnaissance ou classification musicale, en particulier suivant des distances d’édition sur chaines de caractères [MS90,GAMR07]. On s’intéressera ici aux arbres de rythmes, une représentation abstraite proche de la notation musicale [JDB15,RMSI03], et aux mesures de similarité efficaces sur les arbres [PA12] et algorithmes de top-k matching.

Une mise en œuvre dans Neuma, afin de produire des mesures de complexité rythmiques qualifiant les partitions, ou d’effectuer des recherches basées sur le rythme, pourra être envisagée si le temps le permet.

Bibliographie

[NEUMA] http://neuma.huma-num.fr

[FRT16a] R. Fournier-S’niehotta, P. Rigaux, N. Travers. Querying Music Notation International Symposium on Temporal Representation and Reasoning (TIME), 2016.

[FRT16b] R. Fournier-S’niehotta, P. Rigaux, N. Travers. Querying XML score databases : XQuery is not enough International Society for Music Information Retrieval Conference (ISMIR) , 2016.

[MS90] M. Mongeau and D. Sankoff. Comparison of musical sequences. Computers and the Humanities, 24:161–175, 1990.

[GAMR07] C. Gómez, S. Abad-Mota, and E. Ruckhaus. An Analysis of the Mongeau-Sankoff Algorithm for Music Information Retrieval. In Proc. of the 8th International Con- ference on Music Information Retrieval (ISMIR), 109–110, 2007.

[RMSI03] D.Rizo, F. Moreno-Seco, and J.M. Iñesta. Tree-structured representation of musical information. LNCS - LNAI, vol. 2652, 838–846, 2003.

[JDB15] F. Jacquemard, P. Donat-Bouillud, and J. Bresson A Structural Theory of Rhythm Notation based on Tree Representations and Term Rewriting in Proc. 5th Int, Conf. on Mathematics and Computation in Music (MCM), Springer LNAI vol. 9110, 2015.

[PA12] M. Pawlik, N. Augsten RTED : A Robust Algorithm for the Tree Edit Distance VLDB 2012.


36. Développement d’un outil d’analyse synthèse adapté aux imitations vocales


Site : Equipe Sons
Lieu : Laboratoire de Mécanique et d'Acoustique, Marseille
Encadrant : Richard Kronland-Martinet & Thomas Bordonné
Dates :du 01/02/2017 au 31/07/2016
Rémunération :CNRS standard (546€/mois + 50% des transports).
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Dans le cadre des travaux du projet ANR-SoniMove, nous proposons une nouvelle méthodologie pour interroger la perception sonore en se basant sur l’imitation vocale. Dans ce cadre, nous avons enregistré des reproductions vocales et gestuelles de sons évoquant du mouvement. L’étape suivante, pour permettre l’exploitation des imitations, est donc de développer un nouvel outil d’analyse-synthèse de la voix.

En effet, des méthodes d’analyse de la voix existent déjà, mais fonctionnent mal sur les imitations vocales (ces dernières dépassent le cadre de la voix parlée ou chantée) et il nous est donc nécessaire de créer un outil qui leur est adapté.

L’enjeu du stage repose donc sur le développement d’un outil inédit d’analyse-synthèse, permettant de travailler avec précision sur tous les types de sons que la voix peut produire au cours d’une imitation vocale : de la simple voyelle au claquement de langue, en passant par les raclements de gorge.

Dans notre étude, on considère que la voix est le résultat d’une excitation produite par les cordes vocales, filtrée par un résonateur, le conduit vocal. Pour séparer ces deux éléments, nous nous basons sur une méthode déjà existante : le codage par prédiction linéaire (LPC), qui permet rapidement de modéliser la voix comme un système source-résonateur et ainsi d’extraire les caractéristiques de ceux ci.

Le stage se déroulera donc en trois temps :

- Dans un premier temps, le stagiaire devra se familiariser avec la théorie du codage par prédiction linéaire (LPC) et de la perception sonore, afin de bien comprendre les enjeux du stage.

- Ensuite, il s’agira de développer un algorithme adapté aux imitations, en s’appuyant sur des modèles de source et de résonateur actuellement développés dans l’équipe. Le point clef est de réussir à innover en adaptant ces modèles aux les imitations vocales.

- Enfin, une évaluation perceptive au moyen de tests perceptifs est à prévoir, dans le but de déterminer si les nouveaux modèles sont pertinents et dans quelle mesure ils pourront être réutilisés par la suite, dans un contexte de contrôle de la synthèse sonore.


37. Segmentation Parole/Musique de documents multimédias à l’aide de réseaux de neurones profonds


Lieu : Institut national de l’audiovisuel (Ina), Groupe recherche 18 Avenue des frères Lumière 94366 Bry-sur-Marne
Encadrant : David Doukhan: ddoukhan@ina.fr Jean Carrive : jcarrive@ina.fr
Dates :du 01/02/2017 au 01/08/2017
Rémunération : 527.75 euros/mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Les missions de l’institut national de l’audiovisuel (Ina) consistent à archiver et à valoriser la mémoire audio-visuelle française (radio, télévision et médias Web). A ce jour, plus de 15 millions d’heures de documents télé et radio sont conservés, dont 1,5 millions d’heures numérisées. La valorisation de des archives nécessite de les associer à une description permettant leur exploitation. En raison de la masse de données considérée, il n’est techniquement pas possible de procéder à une description manuelle, systématique et détaillée de l’ensemble des archives. Il est donc nécessaire d’utiliser des techniques d’analyse automatique du contenu pour optimiser l’exploitation de cette masse de données.

La segmentation Parole/Musique fait partie des méthodes permettant de réaliser un prétraitement des médias, et ainsi accélérer les processus de documentation manuelle. Cette tâche a suscité de forts intérêts depuis de nombreuses années et a donné lieu à la réalisation de plusieurs corpus annotés et challenges. Un certain nombre de cas d’usages restent à ce jour difficiles, notamment la différentiation entre voix parlée et voix chantée, superposée ou non à de la musique. Une autre difficulté des rencontrée par les systèmes actuels est la liée à la finesse de la segmentation temporelle, généralement de l’ordre de la seconde.

L’objectif du stage consiste à concevoir des systèmes basés sur l’utilisation de réseaux de neurones profonds pour la segmentation parole/musique d’archives audio-visuelles. Les méthodes proposées devront prendre en charge la diversité des archives de l’Ina (archives radio des années 1930 à nos jours) et seront comparées aux approches d’apprentissage automatique standard (SVM, GMM). Une partie du stage sera consacrée à l’analyse des corpus existants, et à la constitution de corpus représentatifs des cas de segmentation difficiles non pris en charge par les autres ressources, qui seront diffusés à l’ensemble de la communauté scientifique sur le site https://dataset.ina.fr. Le langage de programmation utilisé dans le cadre de ce stage sera Python. Le stagiaire aura accès aux ressources de calcul de l’Ina (cluster et serveurs GPU).

Bibliographie

Jimena, R. L., Hennequin, R., & Moussallam, M. (2015). Detection and characterization of singing voice using deep neural networks.

Snyder, D., Chen, G., & Povey, D. (2015). MUSAN : A Music, Speech, and Noise Corpus. arXiv preprint arXiv:1510.08484.

Pinto, N., Doukhan, D., DiCarlo, J. J., & Cox, D. D. (2009). A high-throughput screening approach to discovering good forms of biologically inspired visual representation. PLoS Comput Biol, 5(11), e1000579.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.


38. Caractérisation des opto-coupleurs utilisés dans les compresseurs de dynamique


Site : UVI
Lieu : UVI
Encadrant : Rémy Muller
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Les opto-coupleurs utilisés pour la compression de dynamique des signaux audio ont des caractéristiques non-triviales : temps d’attaque extrêmement rapide, effet mémoire lié à la rémanence, double pente, fonction de compression non-linéaire...etc). Ces caractéristiques que l’on pourrait qualifier de heureux hasards liés aux technologies de l’époque rendent ces appareils particulièrement appréciés des ingénieurs du son.

Les cellules opto-coupleurs consistent la majorité du temps, d’une part d’un émetteur électro-luminescent LED ou incandescent, d’autre part d’un ou plusieurs opto-resistors). Chacun contribuant à la complexité des phénomènes observés (zone morte, effet capacitif... etc). Les montages typiques visent à obtenir un gain variable contrôlé par le signal (la plupart du temps de type feedback pour compenser la sensibilité de la caractéristique des opto-coupleur avec la température).

L’objet du stage consistera à :

1) Établir un état de l’art des modèles disponibles

2) Confronter les modèles avec des mesures in-situ de type boîte blanche (par composant) et boite noire (système complet)

3) Formaliser les modèles dans le cadre des Systèmes Hamiltoniens à Ports 4) Développer des méthodes numériques compatibles avec une simulation temps-réel

Bibliographie

https://en.wikipedia.org/wiki/Photo...

http://www.resistorguide.com/photor...

http://ronja.twibright.com/datashee...

http://dutiosb.twi.tudelft.nl/ jelt...


39. Spectral embedding learning for audio signal synthesis and orchestration


Lieu : IRCAM
Encadrant : Philippe Esling
Dates :15/02/2016
Rémunération :Tarif en vigueur IRCAM
Mots-clés : Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

This project seeks to extend deep learning approaches towards the use of multivariate and multimodal time series, through the analysis of audio signals and musical orchestration. Orchestration is the subtle art of writing musical pieces for orchestra, by combining the spectral properties of each instrument to achieve a particular sonic goal. In this context, the multivariate analysis of temporal processes is required given the inherent multidimensional nature of instrumental mixtures. Furthermore, time series need to be scrutinized at variable time scales (termed here granularities) as a wealth of time scales co-exist in music (from the identity of single notes up to the structure of entire pieces). Hence, we introduce the idea of deep temporal granularity learning that could allow to find not only the salient features inside a dataset but also at which time scale these perform best. Furthermore, orchestration lies at the exact intersection between the symbol (musical writing) and signal (audio recording) representations. We propose to introduce an automatic inference (based on correlations in the work of notorious composers) of multimodal embedding spaces that will allow to decipher the signal-symbol interactions. Based on these spaces, we can perform semantic inference in order to exhibit patterns explaining the underlying metric relationships between modalities, but also to perform generation of novel musical content. Adressing the question of creative intelligence through the analysis of orchestration could give rise to a whole new category of generic learning systems.

Bibliographie

1. Esling P. Agon C. "Time series data mining", ACM Comp. Surv., vol. 45, no. 1. (2012) IF : 4.543 2. Esling P. Agon C., “Multiobjective time series matching and classification” IEEE Transactions on Speech Audio and Language Processing, vol. 21, no. 10, pp. 2057–2072. (2013) IF : 1.675 3. Esling P. & Crestel L. “Live orchestral piano, a system for real-time orchestral music generation”, International Conference on Computational Creativity (ICCC) submitted. (2016)


40. Deep learning and multiple time granularities for musical inference : application to human-computer improvisation


Site : Équipe Représentations Musicale
Lieu : Ircam 1 place Stravinsky 75004 PARIS
Encadrant : Philippe Esling, Jérôme Nika
Dates :du 01/02/16 au 30/06/16
Rémunération :Gratification en vigueur
Mots-clés : Parcours ATIAM : Informatique musicale

Description

Abstract : In multiple applications, time series can be scrutinized at variable time scales, which requires investigating motif mining and knowledge extraction at multiple temporal granularities. These questions are particularly critical in musical contexts, where any time instant is defined and dependent on multiple temporal contexts spanning from few notes to the global scale of the structure of a piece. This requires to embed notions of different memory spans into current models of musical creativity, for example automatic music generation. Furthermore, models should provide flexibility in their generation in order to produce interesting and non-deterministic outputs, even when they have to match a given temporal specification.

These three aspects, namely memory, temporal representations and generativity, will be investigated through the prism of manifold and variational learning by trying to build bridges between two previously developed models : on the one hand, a generative graphical probabilistic model currently applied to automated orchestral generation that should be extended to variational learning and multi-scale temporal aspects ; on the other hand, a memory-based generative model dedicated to human-computer music improvisation guided by a predefined “scenario” structure (e.g. a chord progression). An application could be to build a model discovering underlying structures in live music and inferring short-term “scenarios” for the future in order to feed a music generation engine.

Research context : Data mining and knowledge discovery have provided solutions to a wide array of problems across a variety of scientific fields. Many of these problems involve temporal aspects, which have been increasingly scrutinized through time series data [1]. However, the last decade of advances in computing power, storage capabilities and increasingly complex sources of information have led to a critical data avalanche. The relatively young fields of data mining and knowledge discovery have to be rebuilt to withstand these extreme constraints. Furthermore, the inherent high-dimensionality of time series data makes most mining techniques fall prey to the curse of dimensionality, even at medium scales such as processing a million time series. Machine learning techniques have been mostly overlooked in the time series mining field because of this property [2]. However, the recent advent in deep learning [3] can provide a way to alleviate this problem. Reciprocally, research in deep learning seems to be mostly suffering from a lack of attention towards temporal concepts (lack of memory in neural networks [4]). This project is targeted at developing new learning methods for temporal knowledge, by focusing on multi-scale temporal aspects and evaluating the proposed approach in a musical generation setup [5].

As an application of these studies, the general problem of music generation with temporal specification is considered : generation of an accompaniment from a melody, generation of a solo from a chord progression… and more broadly generation of musical structures from a temporal specification. Critical to this problem is the notion of memory within the models used. Indeed, musical improvisation offers a unique framework of study, as a system driven solely by local successive frame-level decisions would be bound to a lack of continuity in its generation. Several generative representations dealing with the sequential structure of an input stream have already been studied : for example the Factor Oracle automaton within a “style modeling” approach [6, 7], N-grams within the Somax project [8]… Those tools aim at musical generation through a local sequential structure. The problem of adding structural constraints to the machine improvisation has become a rich field and various proposition have been made : the use of an example sequence as a guide for the generation of the new sequence [9] ; the use of automata products to introduce external constraints to the models [10] ; “Flow Machines” [11] ; or the introduction of a formal “scenario” guiding the generation and enabling anticipatory behavior [12].

All these systems share a common interest in memory and the keeping of a creative context. The application of machine learning techniques to the models presented therefore seems like a promising way of compensating for the difficulty of dealing with memory when using machine learning tools. Conversely, machine learning could help make up for the difficulty of aggregating various models and paradigms within a given generative system. The objective of this internship is therefore to mainly investigate the extension of deep learning techniques and temporal automata to automatically extract knowledge and memorial-structure from time series. These aspects will be devoted to the use of variational learning and temporal attention mechanisms so as to generate new sequences based on a corpus of musical contexts.

Expected contributions : The main field of application for this internship will be to target an automated “input-fitted” music generation, as a direct way to evaluate the proposed methods and algorithms. It could consist in building a model discovering underlying structures in live music and inferring short-term “scenarios” for the future (e.g. sequence of chroma, chord progression) in order to feed a scenario-based music generation engine in real-time. This way, anticipative improvisations could be generated from an inferred (and not predefined) underlying structure. Nonetheless, inherently associated with any machine learning tasks is the need for a consequently sized dataset of labeled examples, thus the chosen applications will also depend on the public availability of such datasets.

Based on the dataset devised at the onset of the study, the following work is expected from the intern : 1. Evaluating the state-of-the-art in both generative models based on sequential representations and statistical machine learning, in order to define a major direction to follow during the internship (choosing between research on the temporal, memorial or generative aspects, delegating the other aspects to already existing tools). 2. The intern is then expected to come up with new machine learning approaches to infer information and exchange it with a music generation system. As a first step towards this, existing works on time series data mining will be considered [1, 13]. 3. In order to correctly deal with multiple time-scales those approaches will have to be extended towards deep temporal granularity learning. 4. Investigate complete extraction algorithms to find temporal motifs at variable granularities stemming from multivariate time series, connecting those to some generative system. 5. Evaluate the results via an objective appropriate quality factor (e.g. sequence likelihood).

Bibliographie

[1] Philippe Esling and Carlos Agon. “Time-series Data Mining”. In : ACM Comput. Surv. 45.1 (Dec. 2012), 12:1–12:34. issn : 0360-0300. doi : 10.1145/2379776.2379788.

[2] Christos Faloutsos and Vasileios Megalooikonomou. “On data mining, compression, and Kolmogorov complexity.” In : Data Min. Knowl. Discov. 15.1 (Sept. 14, 2007), pp. 3–20.

[3] Yoshua Bengio. “Learning Deep Architectures for AI”. In : Found. Trends Mach. Learn. 2.1 (Jan. 2009), pp. 1–127. issn : 1935-8237. doi : 10.1561/2200000006.

[4] Vincent Michalski, Roland Memisevic, and Kishore Konda. “Modeling Deep Temporal Depen- dencies with Recurrent Grammar Cells”. In : Advances in Neural Information Processing Systems 27. Ed. by Z. Ghahramani et al. Curran Associates, Inc., 2014, pp. 1925–1933.

[5] Fabian Morchen. Algorithms For Time Series Knowledge Mining. 2006.

[6] Cyril Allauzen, Maxime Crochemore, and Mathieu Raffinot. “Factor oracle : a new structure for pattern matching”. In : 26th Seminar on Current Trends in Theory and Practice of Informatics (SOFSEM’99). Ed. by Pavelka Jan, Tel Gerard, and Bartosek Miroslav. Vol. 1725. LNCS. Milovy, Czech Republic, Czech Republic : Springer-Verlag, Nov. 1999, pp. 291–306.

[7] Gérard Assayag and Shlomo Dubnov. “Using Factor Oracles for Machine Improvisation”. In : Soft Comput. 8.9 (Sept. 2004), pp. 604–610. issn : 1432-7643. doi : 10.1007/s00500-004- 0385-4.

[8] Laurent Bonnasse-Gahot. An update on the SOMax project. Tech. rep. Internal report ANR project Sample Orchestrator 2, ANR-10-CORD-0018. Ircam - STMS, 2014.

[9] Cheng-i Wang and Shlomo Dubnov. “Guided Music Synthesis with Variable Markov Oracle” (2014).

[10] Alexandre Donze et al. Control Improvisation with Application to Music. Tech. rep. UCB/EECS- 2013-183. EECS Department, University of California, Berkeley, Nov. 2013.

[11] Fiammetta Ghedini, François Pachet, and Pierre Roy. “Creating music and texts with flow machines”. In : Multidisciplinary Contributions to the Science of Creative Thinking. Springer, 2016, pp. 325–343.

[12] Jérôme Nika, Marc Chemillier, and Gérard Assayag. “ImproteK : introducing scenarios into human-computer music improvisation”. In : ACM Computers in Entertainment, special issue on Musical metacreation (2016).

[13] Pierre Talbot and Philippe Esling. “Multivariate time series knowledge inference”. MA thesis. IRCAM, 2014.


41. Synthèse de sons de basse électrique : jeu de l’instrumentiste et réglage de l’instrument


Lieu : Equipe LAM, Institut Jean Le Rond ∂’Alembert, UMR CNRS 7190, UPMC, place Jussieu, Paris. l’Institute of Mechanical Sciences and Industrial Applications (ENSTA ParisTech) à Palaiseau.
Encadrant : Jean-Loïc Le Carrou, enseignant-chercheur UPMC (jean-loic.le_carrou@upmc.fr) Cyril Touzé, enseignant-chercheur ENSTA ParisTech (cyril.touze@ensta.fr) Olivier Doaré, enseignant-chercheur ENSTA ParisTech (olivier.doare@ensta.fr)
Dates :1/02/2016 au 1/08/2016
Rémunération :sur la base des indemnités de stage CNRS, environ 500 €/mois, et transport.
Mots-clés : Parcours ATIAM : Acoustique

Description

La basse électrique est un instrument de musique dont la sonorité varie considérablement en fonction du mode de jeu choisi et du réglage de l’instrument. Lorsque le musicien joue en slap ou en pop par exemple, la corde vibre suffisamment fort pour heurter le manche, ce qui confère à l’instrument un son caractéristique, enrichi en hautes fréquences. Lorsque l’instrument est mal réglé, un buzz sonore typique est présent même à faible amplitude de vibrations durant toute la durée de la note.

L’objectif du stage est d’étudier en détail ces deux phénomènes de contact, dit unilatéral car ils n’interviennent que d’un côté de la corde. Pour cela, il faudra étendre le modèle modal actuellement développé [1] aux deux polarisations de vibrations de la corde. Pour simuler le geste de l’instrumentiste, l’identification de l’effort de jeu sera à mener afin de pouvoir être utilisé en entrée du modèle.

L’approche envisagée est à la fois numérique et expérimentale. Des validations expérimentales et des identifications de paramètres mécaniques sur banc de mesures et sur instrument sont prévues.

Bibliographie

C. Issanchou, S. Bilbao, J.L. Le Carrou, C. Touzé and O. Doaré. A modal-based approach for the nonlinear vibration of strings a unilateral obstacle : simulations and experiments in pointwise case. Journal of Sound and Vibration, Accepté sous réserve de correction mineure, 2016


42. Modèles intermédiaires phonologiques pour la synthèse vocale performative


Lieu : Equipe LAM, IJLRDA, UPMC, place Jussieu, Paris.
Encadrant : Christophe d’Alessandro et Boris Doval
Dates :2/2017-7/2017
Rémunération :sur la base des indemnités de stage CNRS, environ 500 €/mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Le propos de ce stage porte sur la nouvelle lutherie. Il s’agit d’étudier la synthèse paramétrique et performative de consonnes chantées. Il s’agit de contrôler en temps réel la synthèse de consonnes, à l’aide de gestes manuels captés sur une tablette graphique. La dynamique des consonnes est beaucoup plus rapide que celle des gestes manuels, il est donc impossible de reproduire avec la main un geste articulatoire. Pour y parvenir quand même, des « modèles intermédiaires », analogues aux séquences de règles en synthèse de parole peuvent être étudiés. Ces règles phonologiques seront encapsulées sous forme de procédures paramétrables, contrôlées par le mouvement du stylet sur la tablette. Le but final est d’enrichir par ces modèles intermédiaires le Cantor Digitalis, un synthétiseur vocal performatif. Au déclenchement de la note, au lieu de jouer une voyelle, une petite "capsule" consonantique, avec consonne et voyelle sera déclenchée et contrôlée. Le clavier ou la tablette permettront de sélectionner les "capsules" ou consonnes, parmi un ensemble. Les modèles s’adapteront aux voyelles, en s’inspirant de la phonologie articulatoire.

Compétences souhaitées : traitement du signal vocal, informatique musicale, synthèse du son, interfaces humain-machine. Motivation pour la voix et la synthèse sonore, les nouveaux instruments.

Bibliographie

1. Olivier Perrorin, Christophe d’Alessandro, (2016) « Sighting, listening, drawing : interferences between sensorimotor modalities in the use of a tablet musical interface », IEEE/ACM Transactions on Applied Perception (TAP), Volume 14 Issue 2, Article No. 10 DOI : 10.1145/2990501 2. Lionel Feugère, Christophe d’Alessandro (2015) « Synthèse à partir du geste de la voix chantée : instruments Cantor Digitalis et Digitartic », Traitement du Signal, 32 (4), 417-442 doi:10.3166/ts.32.417-442 3. Christophe d’Alessandro, Lionel Feugère, Sylvain Le Beux, Olivier Perrotin, and Albert Rilliard (2014) , « Drawing melodies : evaluation of chironomic singing synthesis » , J. Acoust. Soc. Am. 135 (6), 3601-3612.


43. Détection de césure médiane dans les formes sonates


Site : Algomus
Lieu : Amiens (Laboratoire MIS) ou Lille (Laboratoire CRIStAL)
Encadrant : Richard Groult (MIS), Florence Levé (MIS), Mathieu Giraud (CRIStAL)
Rémunération :Gratification
Mots-clés : Parcours ATIAM : Informatique musicale

Description

La musique est complexe, faite de mélodies et d’harmonies structurées dans le temps et dans les hauteurs. La partition musicale formalise un ensemble de sons et est l’un des moyens principaux pour transmettre, échanger et préserver les oeuvres musicales en Occident. Aujourd’hui, les humanités numériques lient les méthodes informatiques au patrimoine culturel et à la recherche en sciences humaines et sociales. Comment les ordinateurs peuvent aider à modéliser les partitions, et idéalement à comprendre la musique ? L’équipe émergente Algomus est une collaboration entre les laboratoires CRIStAL (UMR 9189 CNRS, Université de Lille) et MIS (Université de Picardie Jules Verne, Amiens). Dans le champ des humanités numériques, Algomus mène des recherches en analyse musicale computationelle, c’est-à-dire qu’elle invente des méthodes numériques d’analyse de partitions. En combinant expertise musicologique et méthodes d’algorithmique du texte, de fouille de données et d’apprentissage, l’équipe développe des analyses de motifs, d’accords et d’enchaînements d’accords, de la texture et d’autres notions musicales, pour ultimement comprendre la structure haut-niveau de la musique. Algomus travaille aussi sur la modélisation et la visualisation de partitions analysées, que ce soit à destination des musiciens, des apprenants, des mélomanes ou du grand public. Dans une démarche pluridisciplinaire, Algomus mène des collaborations avec des musicologues, des professeurs de musique et des artistes, et réalise des projets combinant sciences et arts ainsi que des actions de médiation autour de la musique et de l’informatique.

Un des objets d’étude de l’équipe est la forme sonate. C’est une forme musicale classique développée à partir de la fin du XVIIIe siècle jusqu’à la fin du XIXe siècle : de nombreuses oeuvres des périodes classique ou romantique, en particulier les premiers mouvements des symphonies de Haydn, Mozart et Beethoven, sont construites sur ce modèle. Provenant initialement d’une forme binaire qui a été étendue, cette forme comporte trois parties jouant des rôles musicaux complémentaires : exposition, développement et réexpédition. Expositions et réexportions contiennent deux thèmes, ou zones thématiques. Plusieurs marqueurs se trouvent entre les différentes parties, en particulier des cadences (fins de phrases musicales). La césure médiane est un marqueur entre la transition suivant le théme principal et le thème secondaire. Elle est caractérisée par une cadence (généralement une demi-cadence), mais aussi par d’autres aspects mélodiques, rythmiques et de changements de texture. Le but du stage sera de proposer et implémenter un ensemble de règles s’appuyant sur la littérature musicologique pour détecter informatiquement la césure médiane à partir de partitions. Cette implémentation sera testée et évaluée sur un corpus de formes sonates classiques et romantiques. On cherchera en particulier à modéliser formellement et à implémenter les critères présentés par (Hepokoski & Darcy, 2006, p. 30-36).

Les modèles et algorithmes proposés durant le stage seront implémentés et testés sur des oeuvres de Mozart et Haydn. Leurs résultats seront confrontés aux analyses manuelles et discutés avec des musicologues. Le candidat devra avoir des compétences informatiques en apprentissage automatique. et idéalement aussi en algorithmique du texte. Des compétences musicales seront aussi fortement appréciées, si possible avec des notions d’écriture ou d’analyse musicale. Le stage peut se dérouler à Lille ou à Amiens. L’équipe est susceptible de proposer un sujet de thèse dans la prolongation de ce stage.


44. Modélisation et détection de cadences musicales


Site : Algomus
Lieu : Amiens (Laboratoire MIS) ou Lille (Laboratoire CRIStAL)
Encadrant : Louis Bigo (CRIStAL), Florence Levé (MIS), Mathieu Giraud (CRIStAL)
Rémunération :Gratification
Mots-clés : Parcours ATIAM : Informatique musicale

Description

La musique est complexe, faite de mélodies et d’harmonies structurées dans le temps et dans les hauteurs. La partition musicale formalise un ensemble de sons et est l’un des moyens principaux pour transmettre, échanger et préserver les oeuvres musicales en Occident. Aujourd’hui, les humanités numériques lient les méthodes informatiques au patrimoine culturel et à la recherche en sciences humaines et sociales. Comment les ordinateurs peuvent aider à modéliser les partitions, et idéalement à comprendre la musique ? L’équipe émergente Algomus est une collaboration entre les laboratoires CRIStAL (UMR 9189 CNRS, Université de Lille) et MIS (Université de Picardie Jules Verne, Amiens). Dans le champ des humanités numériques, Algomus mène des recherches en analyse musicale computationelle, c’est-à-dire qu’elle invente des méthodes numériques d’analyse de partitions. En combinant expertise musicologique et méthodes d’algorithmique du texte, de fouille de données et d’apprentissage, l’équipe développe des analyses de motifs, d’accords et d’enchaînements d’accords, de la texture et d’autres notions musicales, pour ultimement comprendre la structure haut-niveau de la musique. Algomus travaille aussi sur la modélisation et la visualisation de partitions analysées, que ce soit à destination des musiciens, des apprenants, des mélomanes ou du grand public. Dans une démarche pluridisciplinaire, Algomus mène des collaborations avec des musicologues, des professeurs de musique et des artistes, et réalise des projets combinant sciences et arts ainsi que des actions de médiation autour de la musique et de l’informatique.

Une très grande partie de la musique occidentale – qu’elle soit baroque, classique, romantique, jazz, rock ou pop – est ce qu’on appelle de la musique tonale : les pièces sont centrées sur une tonalité, telles que « Do majeur », c’est-à-dire un ensemble de notes ordonnées dans des gammes. En effet, les notes décrites dans une partition musicale construisent des mélodies (dimension horizontale, temporelle) mais aussi des accords (dimension verticale, harmonique). Les enchaînements de ces accords, ou progressions harmoniques, structurent l’accompagnement d’un morceau, et contribuent à l’impression que la musique « se termine », est « suspendue », ou « part dans d’autres directions ». Le but du stage est de travailler sur des enchaînements harmoniques particulier, les cadences, qui marquent une fin ou une pause dans le discours musical. Le stage devra ainsi concevoir, implémenter et tester des modèles pour l’étude des cadences parfaites et des demi-cadences. Ces modèles s’appuieront sur un apprentissage automatique et sur une expertise. On pourra par exemple chercher à modéliser les « notes à mouvement obligé », telles que sensible, septième et neuvième, qui favorisent certaines successions d’accords.

Les modèles et algorithmes proposés durant le stage seront implémentés, testés sur des partitions de corpus classiques (fugues, formes sonates) et éventuellement sur d’autres corpus. Leurs résultats seront confrontés aux analyses manuelles et discutés avec des musicologues. Le candidat devra avoir des compétences informatiques en apprentissage automatique. et idéalement aussi en algorithmique du texte. Des compétences musicales seront aussi fortement appréciées, si possible avec des notions d’écriture ou d’analyse musicale. Le stage peut se dérouler à Lille ou à Amiens. L’équipe est susceptible de proposer un sujet de thèse dans la prolongation de ce stage.


45. Audio data mining of a large corpus of human infant cries, with applications to the developmental psychology of language


Site : CREAM Lab
Lieu : Equipe CREAM/PDS, IRCAM (Paris)
Encadrant : JJ Aucouturier (CNRS/IRCAM), en collaboration avec Kazuo Okanoya (Université de Tokyo, Japon)
Dates :du 01/03/2017 au 31/07/2017
Rémunération :forfaitaire (541,06€/month)
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Context :

The internship is part of the project CREAM (“Cracking the Emotional Code of Music”, http://cream.ircam.fr), supported by a Starting Grant from the European Research Council. The student will be integrated in the CREAM project, based within the “Perception and Sound Design” team, IRCAM (1 Place Stravinsky, 75004 Paris).

Project description :

During the first year of life, infants gradually acquire language by transitioning from gestures and prelinguistic vocalizations to referential speech. Baby cries even in the neonatal period are signals of intriguing acoustical complexity. Their communication bases are still poorly understood. On the one hand, the cry appears to be a reflexive graded signal that reflects certain states of the infant such as need or pain. On the other hand, increasing evidence shows that, as infants get older, the cry becomes a volitional categorical signal that conveys particular types of needs, such as hunger or loneliness (Okanoya, 2007)

This internship proposes an application of machine learning techniques to generate automatic descriptions from a large corpus of audio recordings of human baby cries, collected by our Japanese collaborators in University of Tokyo. Crying episodes were recorded daily from more than 20 infants, in their first 12 months of age, and annotated by the caregivers for their most likely context (hungry, sleepy, etc.).

The goal of the internship is to generate accurate acoustic metadata for each of the individual cry in the corpus (including whether the cry is an expiration or an inspiration, what is its loudness and pitch contour, as well as timbre descriptors such as roughness) and see how these acoustic characteristics can be used to predict annotated context for the cries. Following the internship, the corpus and its annotation will be published on a public directory to allow other researchers to test further scientific hypotheses about the development of the babies’ linguistic abilities (see Goldstone & Lupyan, 2016).

Student role in the project :

The student will help develop audio machine learning algorithms to extract important elements of the cries : • implement automatic expiration/inspiration segmentation (based on Aucouturier et al, 2011) as a public toolbox (matlab or python), and apply it to the whole database • implement a pitch tracking algorithm adapted to the dataset (for instance, Camacho & Harris, 2008 ), and apply it to the whole database • implement an automatic algorithm to cluster/recognize types of pitch contours (raising, falling, etc.), and apply it to the whole database • format all the audio data as well as metadata (expiration, pitch, pitch contour) in a convenient format to share as a public dataset (as well as release the toolbox to do the analysis) • help write a journal article describing the dataset (co-authored with the Japanese collaborators)

Student’s profile :

We are looking for a Master’s student with strong audio signal processing/machine learning/music information retrieval skills, as well as an interest in human communication and cognitive science. Programming proficiency with Matlab or (preferably) Python is required, as well as a solid understanding of audio pattern recognition and automatic sound description algorithms.

How to apply :

Send a CV and detailed cover letter by email to Jean-Julien AUCOUTURIER, aucouturier@gmail.com

Bibliographie

Aucouturier, J. J., Nonaka, Y., Katahira, K., & Okanoya, K. (2011). Segmentation of expiratory and inspiratory sounds in baby cry audio recordings using hidden Markov models. The Journal of the Acoustical Society of America, 130(5), 2969-2977.

A. Camacho & J. Harris, “A sawtooth-waveform inspired pitch estimator for speech and music,” J. Acoust. Soc. Am., vol. 124, pp. 1638–1652, 2008.

Goldstone, R. L., & Lupyan, G. (2016). Discovering psychological principles by mining naturally occurring data sets. Topics in cognitive science, 8(3), 548-568.

K. Okanoya, “Language evolution as an emergent property,” Curr. Opin. Neurobiol. 17, 271–276 (2007).


46. Comparaisons objectives entre une clarinette ancienne et une clarinette moderne


Lieu : CNRS-Laboratoire de Mecanique et d'Acoustique 4, impasse Nikola Tesla CS 40006 13454 Marseille cedex 13
Encadrant : Philippe Guillemain
Dates :dates usuelles
Rémunération :taux en vigueur
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Nous utiliserons la mesure d’impédance d’entrée et la simulation numérique pour comparer deux clarinettes dont les conceptions ont 200 ans d’écart : une copie d’un modèle historique datant des années 1800 (modèle d’Heinrich Grenser) et une moderne (Buffet Crampon modèle Prestige). Pour l’ensemble du premier registre, il s’agit d’une part de mettre en évidence des différences dans les caractéristiques des impédances d’entrée des deux modèles, notamment en termes d’harmonicité des résonances et de fréquence de coupure due au réseau de trous ouverts. D’autre part, la simulation numérique sera utilisée afin d’évaluer, en fonction de l’embouchure et de la pression dans la bouche, les variations d’un ensemble de descripteurs représentatifs de l’instrument en fonctionnement (justesse, temps d’attaque, brillance). L’objectif sera alors de relier les différences observées dans le fonctionnement avec celles observées sur les impédances d’entrée.


47. Contrôle multi-dimensionnel de la polyphonie


Site : site web du LAM
Lieu : équipe Lutheries-Acoustique-Musique (LAM), Institut ∂'Alembert UMR 7190 UPMC Université Paris 06/CNRS Boîte courrier 162, 4 place Jussieu, 75005 Paris, FRANCE
Encadrant : Vincent GOUDARD — doctorant Collegium Musicæ - Sorbonne Universités - LAM / IReMus
Dates :01/02/2017 au 31/07/2017
Rémunération :environ 515€ / mois
Mots-clés : Parcours ATIAM : Informatique musicale

Description

Le contrôle temps réel de la synthèse dans les instruments numériques est encore largement réalisé via la norme MIDI[1] qui permet une liaison série uni-directionelle entre modules de contrôle et de synthèse. Depuis l’apparition de cette norme, de nombreuses interfaces ont été inventées, pour lesquelles le MIDI est inadapté [2]. Récemment l’ajout de la norme MPE (Multidimensional Polyphonic Expression) tente d’apporter des solutions pour l’utilisation de nouvelles interfaces (Roli Seaboard, Linnstrument, …) exploitant l’expression multi-dimensionelle. Elle reste pour autant cantonnée à un contrôle basé sur des objets statiques et ne répond pas aux problèmes d’instances éphémères que posent les modèles de contrôle virtuels [3][4]. La norme TUIO [5][6] répond de son côté à ce problème d’instance virtuelle, mais se limite un contexte limité à des surfaces multi-touch (position x,y des doigts + fiducials) et ne répond pas aux cas d’interfaces hétérogènes qui se présente lors de la réalisation d’un système instrumental plus complexe.

Partant des bases posées par ces différents protocoles, l’étude vise à élargir ce modèle à une communication non pas seulement linéaire comme celle d’une chaine de traitement MIDI, mais comme un graphe interconnecté de modules de contrôle et de synthèse.

Quel protocole pour une chaîne de traitement entre interface et synthèse (mapping) qui s’adapte aux polyphonies de part et d’autre ? Quelles représentations pour la conception et l’usage de tels instruments ? Quelle ergonomie pour la manipulation multi-dimensionnelle ? ... sont quelques unes des questions qui seront posées dans cette étude.

La mise en pratique sera faite avec le logiciel Max (© Cycling’74) avec lequel le candidat devra s’être familiarisé. Des connaissances en C et javascript pourront être utiles.

Bibliographie

[1] Braut, C., & Garcia, A. (1995). La norme MIDI. Sybex.

[2] Miranda, E. R., & Wanderley, M. M. (2006). New digital musical instruments : control and interaction beyond the keyboard (Vol. 21). AR Editions, Inc..

[3] V. Goudard, H. Genevois, E. Ghomi, and B. Doval, “Dynamic Intermediate Models for audiographic synthesis,” in Proceedings of the Sound and Music Computing Conference, SMC’11, 2011

[4] V. Goudard, H. Genevois, and L. Feugere, “On the Playing of Monodic Pitch in Digital Music Instruments,” in Proceedings of the 40th International Computer Music Conference (ICMC) joint with the 11th Sound and Music Computing conference (SMC) Athens, Sep 2014, p. 1418.

[5] Kaltenbrunner, M., Bovermann, T., Bencina, R., & Costanza, E. (2005, May). TUIO : A protocol for table-top tangible user interfaces. In Proc. of the The 6th Int’l Workshop on Gesture in Human-Computer Interaction and Simulation (pp. 1-5).

[6] Wright, M., & Freed, A. (1997, September). Open sound control : A new protocol for communicating with sound synthesizers. In Proceedings of the 1997 International Computer Music Conference (Vol. 2013, No. 8, p. 10).


48. Modelling Musical Instruments Dynamics using Artificial Neural Network


Site : Analysis/Synthesis Team IRCAM
Lieu : IRCAM, 1 place Igor-Stravinsky, 75004 Paris
Encadrant : Axel.Roebel, Nicolas Obin
Dates :01/02/2017 until 30/06/17
Rémunération : 550€ / mois + avantages sociaux
Mots-clés : Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

The modelling of complete sound sample databases of individual musical instruments with state of the art signal-processing methods is a research direction that has been actively pursued in the analysis/synthesis team for many years. The general idea is to extract signal models of the instrument characteristics from a sound database and then to use these models for sound synthesis that correctly reflects the timbre variations of the instrument related to pitch and intensity changes. One of the approaches has been based on using additive signal models [Hahn 2013, 2015]. More recently and motivated by the progress of large scale training of artificial neural networks for signal synthesis [Oord 2016] we have investigated into extending an approach based on learning the instrument dynamics from state space reconstructions [Roebel 1993, 2001]. Due to the computational complexity of the training phase the early phase of this research was limited to models representing the dynamics of individual notes. Recently, making use of the advances of training algorithms for artificial neural networks as well as increased computational capacity of CPUs and/or GPUs we have started initial investigation into the possibility to represent the dynamics of musical instruments covering the complete space of intensity and pitch variations using a single neural network enabling perceptually coherent sound synthesis [Bru 2016].

Objectives :

The internship aims to continue the research into modelling the dynamics of musical instruments covering the complete space of intensity and pitch variations and to establish instrument models for sound synthesis proposing pitch and intensity control inputs with perceptually valid timbre. The work further aims to investigate into establishing instruments models representing multiple instruments of the same family (violin, cello, …) using a single network model with additional control inputs. Interpolation of the instrument dynamics in pitch, intensity and instrument type space should be experimentally investigated.

This research will make use of the python library theano http://deeplearning.net/software/theano/. The use of GPU cards should be investigated.

Bibliographie

[Bru 2016] M. Bru, Expressive synthesis of musical instrument sounds, Internship, IRCAM / Denmark Technical University, 2016

[Hahn, 2013] H. Hahn and A. Roebel, Extended Source-Filter Model for Harmonic Instruments for Expressive Control of Sound Synthesis and Transformation, Proc. 16th Int. Conf. on Digital Audio Effects (DAFx), 2013, https://hal.archives-ouvertes.fr/ha....

[Hahn 2015] H. Hahn, Expressive Sampling Synthesis - Learning Extended Source–Filter Models from Instrument Sound Databases for Expressive Sample Manipulations, PhD thesis, University Paris 6 (UPMC), 2015, https://hal.archives-ouvertes.fr/te....

[Oord 2016] A. v. d. OOrd et al, WAVENET : A generative model for raw audio, https://arxiv.org/pdf/1609.03499.pdf, 2016

[Roebel 1993] A. Roebel, Neural Models of Nonlinear Dynamical Systems and their Application to Musical Signals, PhD thesis, Technical University of Berlin, 1993.

[Roebel 2001] A. Röbel, Synthesizing natural sounds using dynamical models of sound attractors, Computer Music Journal, Vol 25 No 2, pp 46-61, 2001.


49. Etude de la reconnaissance de sources sonores via un nouveau paradigme RASP (Rapid Audio Sequential Presentation)


Lieu : Institut de Recherche Biomédicale des Armées, Brétigny sur Orge
Encadrant : Clara Suied et Stéphane Buffat clarasuied@gmail.com
Dates :15/02/2017 au 15/07/2017 (flexible)
Rémunération :579 mensuel
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

La reconnaissance de sons naturels comme la voix humaine ou un instrument de musique semble, au quotidien, facile et immédiate. Cependant, la perception n’est pas instantanée, et cette reconnaissance prend du temps. De plus, les indices acoustiques et auditifs, appelés indices du timbre, sur lesquels elle repose ne sont pas complétement élucidés. En s’inspirant d’un paradigme largement utilisé en vision (RSVP - Rapid Serial Visual Presentation ; Buffat et coll., 2013) afin d’étudier, entre autres, les constantes de temps cérébrales à l’œuvre dans un processus de reconnaissance, un nouveau paradigme d’étude auditif a été proposé : RASP pour Rapid Audio Sequential Presentation (Suied et coll., 2013). Il a ainsi été montré que la reconnaissance auditive peut être extrêmement rapide (fenêtre temporelle de l’ordre de 30 ms). De plus, un avantage robuste pour la voix humaine a pu être mis en évidence, avec de meilleures et plus rapides performances de reconnaissance. Le but de ce stage de Master 2 est de poursuivre cette nouvelle série d’études à l’aide du paradigme RASP, en explorant l’effet de facteurs de bas et haut-niveau sur la performance (Inter-stimulus interval, et mémoire). La population considérée est constituée de jeunes auditeurs normo-entendants, sans troubles auditifs antérieurs connus.

Bibliographie

Suied C, Agus TR, Thorpe SJ & Pressnitzer D (2013) Processing of short auditory stimuli : The Rapid Audio Sequential Presentation paradigm (RASP). dans "Basic Aspects of Hearing. Advances in Experimental Medicine and Biology," édité par B.C.J. Moore, R.D. Patterson, I. Winter, R.P. Carlyon, and H.E. Gockel (Springer, New York). Vol 787, pp. 443-451

Buffat S, Plantier J, Roumes C &Lorenceau J (2013) Repetition blindness for natural images of objects with viewpoint changes. Front. Psychology 3:622. doi : 10.3389/fpsyg.2012.00622


50. Contraintes dynamiques


Site : Réprésentations musicales
Lieu : Ircam
Encadrant : Pierre Talbot et Carlos Agon
Dates :du 01/02/2017 au 31/06/2017
Rémunération :Prix fixé par l’Ircam
Mots-clés : Parcours ATIAM : Informatique musicale

Description

Le paradigme de la programmation par contraintes [1,2] permet de résoudre des problèmes combinatoires de manière déclarative. On déclare notre problème et on laisse l’ordinateur le résoudre pour nous — sans qu’on lui explique comment (a contrario des langages classiques). On doit donc trouver une solution dans un espace d’état souvent très grand. Les langages existants de programmation par contraintes (MiniZinc, Essence, ...) se sont attelés à fournir des abstractions de haut niveau pour la modélisation de problèmes de contraintes. Nous avons développé un langage (spacetime programming) basé sur la programmation synchrone pour programmer cette étape d’exploration.

Dans le cadre de ce stage, nous nous intéresserons à l’élaboration d’un système interactif de composition assisté par ordinateur basé sur ce langage. En effet, la résolution d’un problème de composition par contraintes est généralement trop long pour être intéressant sur des problèmes de taille réels. Par conséquent, nous prenons l’approche de lancer la résolution pendant tout le processus créatif, le compositeur ajoutant dynamiquement de nouvelles contraintes au fur et à mesure de l’évolution de la pièce.

Le stage se déroulera en plusieurs étapes au sein de l’équipe représentations musicales (RepMus) de l’IRCAM. (1) La lecture de l’état de l’art dans le domaine de la composition assisté par ordinateur notamment à l’aide de la programmation par contraintes. (2) Le développement du logiciel de composition interactive construit au dessus du langage sus-mentionné. (3) Le candidat sera en interaction avec des compositeurs afin de diriger et valider son approche.

Nous attendons du candidat des très bonnes bases de programmation Java.

Bibliographie

[1] K. Apt. Principles of constraint programming. Cambridge University Press, 2003. [2] Cours en ligne Coursera - https://www.coursera.org/learn/mode...


51. Ambiances sonores urbaines et musique


Site : Sounds in the City
Lieu : McGill Université, Multimodal Interaction Laboratory, Centre for Interdiscplinary Research on Music Media & Technology
Encadrant : Catherine Guastavino, Associate Professor, McGill University, School of Information Studies & Schulich School of Music
Dates :01/02/2017 au 01 ou 15/07/2017
Rémunération :Remboursement des frais relatifs aux documents d’immigration nécessaires.
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Ce stage s’inscrit dans un project en collaboration avec la ville de Montréal sur les ambiances sonores urbaines. The soundscape approach captures the idea that ‘appropriate’ sounds can be used to positive effect ; it is a deviation from the traditional urban noise mitigation approach that aims to make the city less negative but not necessarily more positive. Traditionally, the field of soundscape research has focused on the perspective of ‘city users’, but we are extending that relationship to include and understand the role that ‘city makers’ play on the perception of urban sounds by city users. To advance these ideas, the Sounds in the City project comprises partners from McGill University, the City of Montreal, and the professional realm. We have a multitude of sub-projects on both music and urban sound that an intern could contribute to based on mutual interest. These include the analysis of audio recordings of urban soundscapes with music (combining manual and automatic approaches), the analysis of questionnaires on the role of music in public spaces (using qualitative and/or quantitative methods), evaluation of an urban soundscape intervention, laboratory soundscape auralization and psychoacoustic testing. Please visit our project site to learn more about studies : www.sounds-in-the-city.org, www.musikiosk.org Deep knowledge of English and French is an asset given the bilingual context in Montreal.

Bibliographie

Bibliographie et articles disponibles en ligne sur http://musikiosk.org/soundsinthecit...


52. Appareil vocal : Modélisation Hamiltonienne à Ports, simulation et analyse de bifurcations


Site : LMA
Lieu : Laboratoire de Mécanique et d'Acoustique, Marseille. Avec mission prévue à l'IRCAM
Encadrant : Fabrice Silva (Chargé de Recherche, LMA, silva@lma.cnrs-mrs.fr) & Thomas Hélie (Chargé de Recherche, unité STMS, thomas.helie@ircam.fr)
Dates :1/2-31/7/2017 (flexible)
Rémunération :Gratification CNRS (550€ environ)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

La phonation met en jeu des phénomènes multi-physiques complexes comme la vibration des plis vocaux, l’écoulement pulsé d’air à travers la glotte et la propagation d’ondes acoustiques dans les voies aériennes du locuteur jusqu’à son auditoire. C’est un processus intrinsèquement non linéaire. L’objectif de ce stage est d’examiner comment un tel système non linéaire peut donner naissance à des auto-oscillations, en portant une attention particulière aux échanges d’énergie qui y participent.

Après une étude bibliographique sur la modélisation physique de l’appareil vocal et des systèmes hamiltoniens à ports, on s’intéressera à une modélisation minimale d’appareil vocal qui garantit les équilibres énergétiques entre tous ses composants (plis vocaux, jet d’air, conduit acoustique). On établira une simulation numérique qui préserve cette propriété.

Dans un second temps, on effectuera une analyse des bifurcations du modèle précédemment établi à l’aide des méthodes de continuation numériques (proposées par AUTO, PyDsTool ou encore ManLab). On s’intéressera en particulier aux conditions d’auto-oscillation et au seuil de phonation, en fonction de paramètres physiques (pression sub-glottique, paramètres mécanique des plis) et géométriques (distance entre le plis). On s’aidera d’une étude sur les transferts d’énergie pour examiner et interpréter les conditions d’émergence d’auto-oscillations périodiques ou quasi-périodique. L’effet de la dissymétrie des caractéristiques des plis sera examiné et relié à des régimes de voix « saines » ou « pathologiques ».

Dans un troisième temps, on cherchera à raffiner progressivement le modèle (collision des plis vocaux, mécanique plus fine des plis et conduit acoustique à plusieurs formants) et on s’intéressera à d’autres régimes et bifurcations. En particulier, on cherchera à reproduire les mécanismes 0 (fry), 1 (voix de poitrine) et 2 (voix de têtes).

Connaissances requise en : * mécanique, vibration et acoustique. * systèmes dynamiques et traitement du signal * Matlab et/ou python

Bibliographie

B. Erath, M. Zañartu, K. Stewart, M. Plesniak, D. Sommer and S. Peterson, “A review of lumped-element models of voiced speech”, Speech Communication, 55:667-690, 2013.

I. Titze, “The physics of small-amplitude oscillation of the vocal folds”, J. Acous. Soc. Am. 83(4):1536-1552, 1988.

I. Steincke & H. Herzel, “Bifurcations in an asymmetric vocal‐fold model”, J. Acous. Soc. Am. 97(3):1874-1884, 1995.

D. Jeltsema and A. van der Schaft, “Port-Hamiltonian Systems Theory : An Introductory Overview.” In : Now Publishers Inc. (2014).

N. Lopes, Approche passive pour la modélisation, la simulation et l’étude d’un banc de test robotisé pour les instruments de type cuivre. Thèse de doctorat de l’UPMC, 2016.

N. Lopes and Th. Hélie. Energy balanced model of a jet interacting with a brass player’s lip. Acta Acustica United With Acustica, 102(1):141-154, 2016.

T. Hélie, F. Silva. Physique de la dynamique glottique : aspects énergétiques et auto-oscillations. Cours Ecole d’eté Sciences et Voix, septembre 2016.


53. Détection, localisation et caractérisation sonore par un robot mobile


Site : A.I.mergence
Lieu : A.I. mergence (Paris)
Encadrant : Nicolas Obin, (IRCAM - Analyse et Synthèses des Sons), Théophile Gonos, Hanan Salam, David Vigouroux (A.I.Mergence)
Dates :01/02/2017 au 30/06/17
Rémunération : 554€ / mois
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Contexte : A.I.Mergence est une jeune société (JEI) spécialisée en intelligence artificielle et robotique autonome. Elle conçoit un robot intelligent de sécurité/surveillance nommé E-4 pour les particuliers et les entreprises. E-4 remplace les systèmes d’alarme conventionnels. Il planifie des rondes automatiquement afin de surveiller la maison. Lorsqu’E4 se met en veille, il est capable de détecter un bruit anormal. Le robot se réveille ensuite et se dirige ainsi vers la source du bruit afin vérifier qu’il n’y a pas eu une intrusion.

Objectifs : Dans le cadre du développement du robot de sécurité E-4, le stage aura pour but de concevoir le module, composants électroniques et algorithmes, en charge de détecter et localiser la source d’un son. Le travail à effectuer dans ce stage concernera l’extension du système de la localisation multi-sources par NMF [ROUTE, 2015 ; Benaroya, 2017] développé par l’IRCAM. Il pourra comprendre :

- l’extension de l’algorithme pour prendre en compte les indices binauraux tel que Interaural Level Difference (ILD) et Interaural Time Difference (ITD) [Sawada, 2013, Magron, 2016]

- la généralisation de l’algorithme au « multinaural »

- l’adaptation à l’environnement sonore : savoir distinguer le bruit de l’environnement et le bruit propre du robot. Ce travail est important pour la caractérisation de bruit notamment lorsque le robot est en mouvement.

- l’expérimentation en milieu réaliste, c.a.d avec les « oreilles » de robot mobile E-4

Une étude préliminaire sur la détection d’activité anormale sera réalisée. Le robot devra être capable de différentier un bruit « normal » pour une maison spécifique d’un bruit qui ne l’est pas.

Les problématiques abordées durant le stage seront choisies en début du stage après une phase d’étude bibliographique. Les solutions réalisées au cours du stage seront intégrées au robot de sécurité E-4 et tester en conditions réelles.

Bibliographie

[Benaroya, 2017] L. Benaroya, N. Obin, M. Liuni, A. Roebel, W. Raumel, S. Argentieri. NTF-based binaural sound source localization for robot audition, ,submitted to IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2017.

[Magron, 2016] P. Magron, R. Badeau, B. David. Complex NMF under phase constraints based on signal modeling : application to audio source separation, in IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2016.

[ROUTE, 2015] ROUTE : RObot à l’écoUTE, programme Convergence, Sorbonne Universités (juin 2015-mai 2016).

[Sawada, 2013] H. Sawada, H. Kameoka, S. Araki, and N. Ueda. Multichannel Extensions of Non-Negative Matrix Factorization With Complex-Valued Data, in IEEE Transactions on Audio Speech and Language Processing (TASLP), 21(5), p.971-982, 2013


54. Réseaux profonds pour la recommandation multi-lingues de voix par similarité


Lieu : Laboratoire d'Informatique d'Avignon
Encadrant : Jean-François Bonastre (LIA), Nicolas Obin (Ircam)
Dates :01/02/2017 au 30/06/17
Rémunération : 550€ / mois
Mots-clés : Parcours ATIAM : Traitement du signal

Description

Contexte :

La recommandation de voix consiste à trouver dans une base de données d’acteurs celui qui est le plus à même de reproduire la voix d’un acteur donné, par exemple pour le doublage des voix d’une langue à une autre. La recommandation automatique de voix d’acteurs est un sujet de recherche nouveau qui repose sur la caractérisation et l’élaboration de mesure de la similarité entre des voix expressives d’acteurs professionnels [Lindh 2010 ; Kelly 2016, Obin 2016]. Le défi majeur de la recommandation de voix consiste à élaborer des mesures de similarité qui soient stables par rapport à la langue, pour permettre d’opérer des recommandations entre des langues différentes. Un autre défi important consiste à pouvoir modéliser la palette vocale d’un acteur dans son ensemble, pour ne plus se limiter à une recommandation basée sur un extrait de voix court et ciblé, mais mieux prendre en compte la variabilité des voix d’acteurs indépendamment des contextes de jeu et d’interprétation.

Objectifs :

Le travail mené dans ce stage prolongera les recherches initiées à l’Ircam [Obin 2016] et consistera à répondre aux enjeux de la recommandation automatique de voix par similarité dans un contexte multi-lingue à partir de grandes bases de données d’acteurs professionnels. Les recherches viseront à :

-  La recommandation de voix à partir de la palette vocale d’un acteur, à partir de réseaux de neurones profonds en prolongement des travaux actuels du LIA [Morchid 2015 ; Janod 2016] et en s’inspirant de travaux récents pour opérer une recommandation qui se fonde sur l’ensemble de la palette vocale d’un acteur ;

-  L’extension du moteur de recommandation à un ensemble de langues (par exemple : anglais, français, allemand, japonais, mandarin, russe, etc…). Les travaux devront permettre de dresser un diagnostic sur la robustesse de la recommandation entre des langues différentes, et à envisager des solutions d’amélioration pour adapter la recommandation entre des langues possiblement très différentes.

Les travaux de recherche seront menés à travers une collaboration du LIA et de l’Ircam, avec la collaboration de la société ExeQuo, spécialisée en doublage de jeux vidéos.

Bibliographie

[Janod, 2016] K. Janod, M. Morchid, R. Dufour, G. Linares, G., R. De Mori (2016). “Deep Stacked Autoencoders for Spoken Language Understanding”. Interspeech San Francisco, 2016.

[Kelly, 2016] Finnian Kelly, Anil Alexander, Oscar Forth, Samuel Kent, Jonas Lindh, Joel Åkesson, Identifying perceptually similar voices with a speaker recognition system using auto-phonetic features, Interspeech, 2016.

[Lindh, 2010] Jonas Lindh and Anders Eriksson, Voice Similarity - a Comparison Between Judgements by Human Listeners and Automatic Voice Comparison, Proceedings of FONETIK, p.63-69, 2010.

[Morchid, 2013] Morchid M., Dufour R., Bouallegue M., Linarès G., Matrouf D., “LIA@MediaEval 2013 MusiClef Task : A Combined Thematic and Acoustic Approach,” MediaEval 2013.

[Obin, 2016] N. Obin, A. Roebel. ”Similarity Search of Acted Voices for Automatic Voice Casting”, IEEE/ACM Transactions on Audio, Speech and Language Processing, vol. 24, no 9, p. 1638-1647, September 2016.


55. Rôle de l’action et de l’intégration multisensorielle dans le traitement des acouphènes en réalité virtuelle


Site : Esapces Acoustiques et Cognitifs
Lieu : IRCAM
Encadrant : Isabelle Viaud-Delmon et Olivier Warusfel
Dates :01/02/2016 au 31/07/2016
Rémunération :selon réglementation en vigueur, environ 550 euros
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Le stage s’inscrit dans un nouvel axe de recherche interdisciplinaire proposant une approche de la réhabilitation des troubles auditifs basée sur l’entraînement de la boucle auditivo-motrice (Londero et al 2011 ; Malinvaud et al 2016). Nous faisons l’hypothèse que l’interaction audition et mouvement favorise la plasticité cérébrale. Celle-ci est évaluée à travers une proposition de thérapie pour les acouphènes dans laquelle la boucle auditivo-motrice est stimulée par des techniques de réalité virtuelle fournissant un retour sonore spatialisé des actions.

Les acouphènes sont un trouble perceptif désignant un ensemble de sensations auditives fantômes en l’absence de stimulation acoustique extérieure. Aucun traitement curatif n’est pour l’instant connu pour cette pathologie fréquente et invalidante, ayant de lourdes conséquences émotionnelles. Si les acouphènes font le plus souvent suite à une lésion auditive périphérique responsable d’une hypoacousie, l’entretien du symptôme et ses caractéristiques psychoacoustiques ne peuvent être expliqués que par une modification tonotopique de l’activité des voies auditives cortico-sous corticales (Eggermont & Roberts 2004). La perception de l’acouphène a des corrélats neuronaux multiples, et est acompagnée d’une co-activation des réseaux neuronaux liés à la souffrance émotionnelle, non spécifiques à l’acouphène (Langguth et al 2011).

Nous proposons une thérapie en réalité virtuelle consistant à favoriser la dissociation entre la perception de l’acouphène et ses conséquences émotionnelles en utilisant la manipulation du couplage perception-action opérable par les techniques de réalité virtuelle. L’acouphène représente pour le patient un son sur lequel il n’a aucun contrôle, que ce soit au niveau fréquentiel, amplitude, ou spatial. Il s’agit ici de permettre au patient de manipuler l’acouphène dans l’espace de sorte à permettre, à terme, une agentivisation du phénomène permettant sa maitrise au niveau émotionnel.

METHODES

La recherche proposée repose dans un premier temps sur la synthèse d’un son reproduisant les caractéristiques auditives de l’acouphène perçu par le patient. Dans un second temps, l’acouphène synthétique est inséré dans un environnement de réalité virtuelle interactif et est manipulé en temps réel par le patient de sorte à en contrôler la localisation dans l’espace. Les différentes composantes sonores de l’environnement virtuel (acouphène synthétique ainsi que diverses sources ou ambiances sonores) sont spatialisées au moyen de techniques binaurales. Les technologies de la réalité virtuelle permettent ici de contrôler le rôle de l’action et des différentes entrées sensorielles dans la perception émotionnelle associée à la sensation auditive.

OBJECTIFS

L’enjeu du travail proposé est dans un premier temps de travailler sur l’évaluation de méthodes de caractérisation de l’acouphène, qui doivent être robustes et satisfaisantes pour les patients. Dans un deuxième temps, des expériences serons menées afin d’affiner le protocole d’entraînement en réalité virtuelle, combinant des indices sensoriels visuels, auditifs et proprioceptifs.

Bibliographie

Eggermont JJ, Roberts LE. (2004) The neuroscience of tinnitus. Trends Neurosci. ;27(11):676-82.

Langguth B, Landgrebe M, Kleinjung T, Sand GP, Hajak G. (2011) Tinnitus and depression.World J Biol Psychiatry. ;12(7):489-500.

Londero A, Viaud-Delmon I, Baskind A, Bertet S, Delerue O, Bonfils P, Warusfel O. (2010) Auditory and visual 3D virtual reality therapy for chronic subjective tinnitus : theoretical framework, Virtual Reality ; 14(2):143-151.

Malinvaud D, Londero A, Niarra R, Peignard P, Warusfel O, Viaud-Delmon I, Chatellier G, Bonfils P. (2016) Auditory and visual 3D virtual reality therapy as a new treatment for chronic subjective tinnitus : Results of a randomized controlled trial. Hear Res. ;333:127-35.


56. Action jointe et synchronisation interpersonnelle via la boucle auditivo-motrice


Site : Esapces Acoustiques et Cognitifs
Lieu : IRCAM
Encadrant : Isabelle Viaud-Delmon et Lise Hobeika
Dates :01/02/2016 au 31/07/2016
Rémunération :selon réglementation en vigueur, environ 550 euros
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Les neurosciences commencent à s’intéresser à l’inscription de l’homme dans sa société et réalisent qu’il est difficile d’établir les mécanismes neuronaux de la cognition sociale en étudiant des individus en isolation. Si l’on sait depuis longtemps que le contexte social module les réponses comportementales aux stimuli sensoriels, il n’en reste pas moins que prendre en compte celui ci n’est pas une pratique courante de la démarche expérimentale adoptée en neurosciences comportementales chez l’homme.

L’objectif de ce projet est d’étudier le rôle de la boucle auditivo-motrice en condition sociale. Le retour auditif fourni par notre présence dans l’espace est important pour l’action et la cognition. Le système auditif tire avantage des modifications dynamiques des indices acoustiques liés aux changements d’orientation de la tête pour guider en temps réel la motricité (Boyer et al 2013). Par ailleurs, les indices sensorimoteurs et auditifs suffisent à la construction d’une représentation adéquate de l’espace (Viaud-Delmon et Warusfel 2014).

Nous avons pu mettre en évidence le rôle de cette boucle auditivo-motrice pour le contrôle de l’action d’un individu isolé lors de tâches de pointage avec sonification et lors de taches spatiales de recherche de cible dans un environnement auditif mis à jour en temps réel en fonction des mouvements, mais nous ne savons pas quel est son devenir lorsque l’individu entend le retour auditif de plusieurs acteurs. Est ce qu’entendre les mouvements d’un autre individu influence la précision de notre propre contrôle moteur ? Est ce que cette perception modifie le sentiment d’agentivité sur nos actions ?

L’étude de la boucle auditivo-motrice pour l’action jointe repose sur le fait que l’audition est une information importante pour la coordination de l’action, comme le démontre la musique, la dance, les marches militaires.... Enfin, la coordination via la musique augmente la coordination interpersonnelle (Demos et al 2012 J exp Psychol gen) et permet la synchronisation au delà de l’espace peripersonnel et sans limitation liée aux restrictions imposées par l’espace visuel.

METHODES

Une tâche de pointage manuel avec sonification sera proposée à deux participants, lors de laquelles ils devront atteindre une cible le plus rapidement et le plus précisément possible. Leur mouvement sera sonifié, et le rendu sonore sera accessible ou pas au co-acteur. Les performances motrices seront enregistrées et comparées dans des conditions où le retour auditif de leur action sera manipulé : condition contrôle sans sonification, condition à deux avec retour individuel sur casque de chacune des actions, condition à deux avec retour identique sur casque pour les deux participants (sonification de l’action du sujet 1), condition à deux avec retour identique sur casque pour les deux participants (sonification de l’action du sujet 2), condition à deux avec sonification et retour sur haut-parleurs.

Bibliographie

Demos AP, Chaffin R, Begosh KT, Daniels JR, Marsh KL. (2012) Rocking to the beat : effects of music and partner’s movements on spontaneous interpersonal coordination. J. Exp. Psychol. Gen. 141 49–53 10.1037/a0023843

Boyer EO, Babayan BM, Bevilacqua F, Noisternig M, Warusfel O, Roby-Brami A, Hanneton S, Viaud-Delmon I. (2013) From ear to hand : the role of the auditory-motor loop in pointing to an auditory source. Front. Comput. Neurosci. 7:26 10.3389/fncom.2013.00026

Viaud-Delmon I & Warusfel O. (2014) From ear to body : the auditory-motor loop in spatial cognition. Front. Neurosci. 8:283 10.3389/fnins.2014.00283


57. Caractérisation acoustique en situation de mobilité et non supervisée. Application à l’identification de fonctions de transfert binaurales


Site : Trac-Caractérisation acoustique en situation de mobilité et non supervisée. Application à l’identification de fonctions de transfert binaurales
Lieu : IRCAM - Equipe Espaces Acoustiques et Cognitifs
Encadrant : Olivier Warusfel
Dates :01/02/2017 au 31/02/2017
Rémunération :Selon règlementation en vigueur environ 550€/mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

L’analyse de l’environnement sonore est un domaine de recherche en expansion grâce notamment au recours à des réseaux denses de microphones [Zotkin 10][Rafaely 05], tels que les réseaux sphériques qui permettent une analyse fine de la direction d’incidence des sources ou des réflexions qui composent la scène sonore [Sun 12]. Les principaux domaines d’application sont, d’une part, la séparation de sources sonores notamment pour l’audition des robots et, d’autre part, la captation et la reproduction de scènes sonores ou de réponses impulsionnelles spatialisées.

Pour les applications de caractérisation du champ sonore, celle-ci se base généralement sur l’utilisation de signaux de mesure calibrés. De leur côté, les algorithmes de séparation de sources basés sur un réseau de capteurs (e.g. audition des robots) supposent une connaissance a priori de la configuration géométrique des capteurs, de la caractérisation de leur fonction de directivité effectuées dans un environnement contrôlé (e.g. chambre anéchoïque) ou des voies qui ont été préalablement formées [Comon 10][Maazaoui 12].

L’explosion des usages basés sur les périphériques mobiles (e.g. téléphone portables) suggère cependant la recherche et le développement de méthodes de caractérisation acoustique capables d’identifier en permanence l’environnement acoustique dans lequel ce réseau de périphériques évolue et d’inférer des hypothèses sur son organisation spatiale à partir de l’analyse des sources sonores en présence [Gallo 07][Zeng 12]. Dans ce travail, l’accent est mis non pas sur l’optimisation de l’extraction de sources mais sur l’autodétermination des caractéristiques acoustiques d’un réseau de capteurs et de l’environnement dans lequel il évolue.

Contexte applicatif

L’un des contextes applicatifs de ce sujet à la frontière du traitement du signal, de l’acoustique et de l’apprentissage automatique est l’identification de fonctions de transfert de tête, à la base de la technologie de reproduction binaurale. Les mesures de fonctions de transfert de tête sont typiquement réalisées en environnement contrôlé (chambre anéchoïque). Il pourrait donc être intéressant de pouvoir identifier ces fonctions de transfert dans des contextes non supervisés et en situation de mobilité. Ce contexte peut-être considéré comme un cas particulier du problème général exposé plus haut et dans lequel le réseau de capteurs bien que mobile ne se déforme pas. Dans ce contexte, la mobilité du réseau représente un atout puisque le système peut accumuler en permanence de nouvelles connaissances sur son environnement proche ou lointain et sur son propre comportement acoustique. Le travail s’appuiera sur des études préliminaires réalisées dans l’équipe [Maazaoui 16a, 16b]. Ces études se basent sur un enregistrement binaural effectué à l’aide de microphones intra-auriculaires en conditions non-supervisées : signaux quelconques, sujet et sources en mouvement, milieu réverbérant. L’enregistrement est exploité pour identifier par apprentissage artificiel, au sein d’une base de données de HRTFs, celles qui expliquent au mieux les paramètres inter-auraux et monoraux d’un modèle de localisation auditive.

Bibliographie

[Ajdler 06] Ajdler, T., Sbaiz L., and Vetterli, M., The Plenacoustic Function and its Sampling, IEEE Transactions on Signal Processing, Vol. 54, Nr. 10, pp. 3790-3804, 2006.

[Brungart 99] Brungart, D.S., Rabinowitz, W.M., (1999). Auditory localization of nearby sources. Head-related transfer functions. J. Acoust. Soc. Am., 106 :1465

[Cohen 04] Cohen I. (2004), Relative transfer function identification using speech signals, Speech and Audio Processing, IEEE Transactions on, vol. 12, pp. 451‐459, 2004.

[Comon 10] Comon, P., Jutten, C., Handbook of Blind Source Separation, Independent Component Analysis and Applications. Elsevier, 2010.

[Bourdillat 01] Bourdillat, E., deVries, D., Hulsebos, E. Improved microphone array configurations for auralization of sound fields by Wave Field Synthesis. 110th AES Convention, 2001.

[Filos 10] Filos, J., Habets, E. A. P. and Naylor, P. A. ,(2010) “A two-step approach to blindly infer room geometries,” in Proc. Intl. Workshop Acoust. Echo Noise Control (IWAENC), Tel Aviv, Israel..

[Gallo 07] Gallo, E., Tsingos, N., Lemaitre, G., 3D-audio matting, post-editing and re-rendering from field recordings. EURASIP JASP, special issue on Spatial Sound and Virtual Acoustics, 2007.

[Maazaoui 12] Maazaoui, M., Abed-Meraim, K., Grenier, Y., Blind source separation for robot audition using fixed hrtf beamforming. EURASIP Journal on Advances in Signal Processing, 2012.

[Maazaoui 16a] Maazaoui, M. et Warusfel O., Estimation des HRTFs individuelles sur la base d’enregistrements binauraux en conditions non supervisées, In Proc. of CFA/Vishno 2016, 2016.

[Maazaoui 16b] Maazaoui, M. et Warusfel O., Estimation of Individualized HRTFs in Unsupervised Conditions, In Proc of 140th AES Convention (paper 9520), 2016.

[Nakadai 09] Nakadai, K., Nakajima, H., Yuji, H., Hiroshi, T. Sound source separation of moving speakers for robot audition. IEEE International Conference on Acoustics, Speech and Signal Processing, pages 3685–3688, 2009.

[Pollow 12] Pollow, M., et a., (2012) Calculation of head-related transfer functions for arbitrary field points using spherical harmonics décomposition, Acta Acustica united with Acustica, vol. 98, n° 1, pp. 72-82

[Rafaely 05] Rafaely, B. (2005), Analysis and design of spherical microphone arrays, IEEE Trans. ASP, 13(1), 135-143. Sun H., Kellermann W., Mabande E., Kowalczyck K., (2012) Localization of distinct reflections in rooms using spherical microphone array eigenbeam processing, JASA, 131(4), 2828-40

[Sun12] Sun H., Kellermann W., Mabande E., Kowalczyck K., (2012) Localization of distinct reflections in rooms using spherical microphone array eigenbeam processing, JASA, 131(4), 2828-40

[Zeng 12] Zeng, Y. and Hendriks, R.C. (2012), Distributed Delay And Sum Beamformer For Speech Enhancement In Wireless Sensor Networks Via Randomized Gossip, in IEEE Int. Conf. Acoust., Speech, Signal Processing

[Zotkin10] Zotkin D.N. et al., (2010), Plane-wave decomposition of acoustical scenes via spherical and cylindrical microphone arrays, IEEE Trans. ASLP, 18 :2-18


58. Stage Ingénieur - Réalisation d’un outil de gestion de projet web H/F


Lieu : Site SAFRAN PARIS-SACLAY Rue des Jeunes Bois Châteaufort - CS 80112 78772 Magny les Hameaux
Encadrant : Marc GARAS
Dates :du 13/02/2017 au 28/07/2017
Rémunération :900€
Mots-clés : Master SAR, autre qu’ATIAM

Description

Dans le cadre de ses activités, Safran ES souhaite améliorer et standardiser ses outils de gestion de projet Web (Dashboard, suivi financier, gestion de la documentation,…).

Le stage a donc pour feuille de route : o L’étude des outils de gestion de projets utilisés actuellement. o L’audit des Chefs de Groupes concernant les outils souhaités o La spécification d’une solution de standardisation des outils sur la base d’outils bureautique et d’un intranet JEE o Le développement et le déploiement des outils

L’environnement sur lequel vous travaillerez sera le suivant :
- Java JEE
- JSP/HTML/JavaScript
- Apache / Tomcat
- MS Excel / MS Word / Adobe PDF
- Eclipse
- SVN
- XML

Vous aborderez en plus des thèmes liés à l’environnement du travail et au travail en équipe :
- Les contraintes imposées au développement de composants réutilisables.
- La problématique de la gestion de projet informatique.
- La problématique des applications distribuées.


59. Conception d’une méthode de détection de mot-clé utilisant un réseau de neurone profond


Site : invoxia
Lieu : 2 rue Maurice Hartmann, 92130 Issy-les-moulineaux
Encadrant : Eric Humbert
Dates :du 21/02/2017 au 07/07/2017
Rémunération :1000 €
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Invoxia est une start-up française qui invente, conçoit et fabrique des objets connectés pour la communication à la maison et au bureau. Passionnés de technologie et par les objets bien finis, l’innovation est notre moteur. Nous sommes basés à Issy-les-Moulineaux et présents dans la distribution en Europe au travers de nos marques Invoxia et Swissvoice. Notre dernier produit, Triby, transforme la communication à la maison et fut le premier produit de tierce-partie à intégrer l’assistant vocal Alexa d’amazon. Spécialistes de la voix, nous cherchons toujours à améliorer nos algorithmes. Dans ce contexte, au cours d’un stage de 4 à 6 mois, vous serez amené à améliorer une méthode de détection de mot-clé utilisant un réseau de neurones profond. Vous serez libre d’expérimenter les dernières avancées du deep-learning sur notre dataset complet, et grâce à la puissance de calcul mise à disposition. Vous ferez partie d’une petite équipe de R&D dynamique, constituée de passionnés de technologie s’efforçant de mettre des appareils innovants sur le marché. Vous devez faire preuve d’autonomie, d’esprit d’initiative et d’un goût prononcé pour l’audio et la recherche. Contenu du stage :

  • Analyse de la bibliographie sur la détection de mots-clés par réseau de neurone
  • Sélection d’une ou plusieurs méthodes prometteuses de détection
  • Implémentation et apprentissage dans un framework DL
  • Évaluation de l’amélioration apportée
  • Critique et éventuelles améliorations
  • Éventuellement, portage du code dans le logiciel embarqué.

Compétences requises :

  • connaissance des frameworks python de deep-learning
  • connaissance traitement du signal audio
  • connaissance de docker appréciée
  • curiosité.

Bibliographie

[1] G. Chen, C. Parada, and G. Heigold, “Small-footprint keyword spotting using deep neural networks,” in Proceedings of the International Conference on Acoustics, Speech and Signal Pro- cessing (ICASSP). IEEE, 2014, pp. 4087–4091.

[2] Guoguo Chen, Carolina Parada, and Tara N Sainath. “Query-by-example keyword spotting using long short-term memory networks”. In : Proceedings of the International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE. 2015.

[3] MartinWollmer,BjornSchuller,and GerhardRigoll,“Keywordspotting exploiting long short-term memory,” Speech Communication, vol. 55, no. 2, pp. 252 – 265, 2013.

[4] Graves, A., Mohamed, A. R., & Hinton, G. (2013, May). Speech recognition with deep recurrent neural networks. In Acoustics, Speech and Signal Processing (ICASSP), 2013 IEEE International Conference on (pp. 6645-6649). IEEE.


60. Conception d’une méthode de débruitage de la voix utilisant un réseau de neurone profond


Site : invoxia
Lieu : 2 rue Maurice Hartmann, 92130 issy-les-moulineaux
Encadrant : Eric Humbert
Dates :du 21/02/2017 au 07/07/2017
Rémunération :1000 €
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Invoxia est une start-up française qui invente, conçoit et fabrique des objets connectés pour la communication à la maison et au bureau. Passionnés de technologie et par les objets bien finis, l’innovation est notre moteur. Nous sommes basés à Issy-les-Moulineaux et présents dans la distribution en Europe au travers de nos marques Invoxia et Swissvoice. Notre dernier produit, Triby, transforme la communication à la maison et fut le premier produit de tierce-partie à intégrer l’assistant vocal Alexa d’amazon. Spécialistes de la voix, nous cherchons toujours à améliorer nos algorithmes. Dans ce contexte, au cours d’un stage de 4 à 6 mois, vous serez amené à améliorer une méthode de débruitage utilisant un réseau de neurones profond. Vous serez libre d’expérimenter les dernières avancées du deep-learning sur notre dataset complet, et grâce à la puissance de calcul mise à disposition. Vous ferez partie d’une petite équipe de R&D dynamique, constituée de passionnés de technologie s’efforçant de mettre des appareils innovants sur le marché. Vous devez faire preuve d’autonomie, d’esprit d’initiative et d’un goût prononcé pour l’audio et la recherche. Contenu du stage :

  • Analyse de la bibliographie sur le débruitage de la voix par réseau de neurone
  • Sélection d’une ou plusieurs méthodes prometteuses
  • Implémentation et apprentissage dans un framework DL
  • Évaluation de l’amélioration apportée
  • Critique et éventuelles améliorations
  • Éventuellement, portage du code dans le logiciel embarqué.

Compétences requises :

  • connaissance des frameworks python de deep-learning
  • connaissance traitement du signal audio
  • connaissance de docker appréciée
  • curiosité.

Bibliographie

[1] Hakan Erdogan, John R. Hershey, Shinji Watanabe, and Jonathan Le Roux. Phase- Sensitive and Recognition-Boosted Speech Separation using Deep Recurrent Neural Net- works. 2015 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), avril 2015.

[2] Kun Han, Yuxuan Wang, and DeLiang Wang. Learning Spectral Mapping for Speech Dereverberation. 2014 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), janvier 2014.

[3] Ding Liu, Paris Smaragdis, and Minje Kim. Experiments on Deep Learning for Speech Denoising. janvier 2014.

[4] Aditya Nugraha, Antoine Liutkus, and Emmanuel Vincent. Multichannel Audio Source Separation with Deep Neural Networks. RR-8740, Inria, janvier 2016.

[5] Felix Weninger, Hakan Erdogan, Shinji Watanabe, Emmanuel Vincent, Jonathan Le Roux, John R. Hershey, and Björn Schuller. Speech Enhancement with LSTM Recurrent Neural Networks and its Application to Noise-Robust ASR. août 2015.

[6] Felix Weninger, John R. Hershey, Jonathan Le Roux, and Björn Schuller. Discriminatively Trained Recurrent Neural Networks for Single-Channel Speech Separation. Signal and Information Processing (GlobalSIP), 2014 IEEE Global Conference on Machine Learning Applications in Speech Processing, décembre 2014.


61. Séparation "source-système en séries de Volterra" : application à la synthèse sonore avec variation de timbre


Site : Equipe Systèmes et Signaux Sonores
Lieu : IRCAM
Encadrant : Damien.Bouvier, Thomas.Helie, David.Roze @ircam.fr
Dates :01/02/2016 au 31/07/2016
Rémunération :550€/mois
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Contexte : De nombreux sons résultent de la modification d’une excitation (signal source) par un filtre (linéaire). C’est par exemple le cas du modèle source-filtre pour la voix, pour lequel il existe des méthodes de séparation associée (Linear Predictive Coding [F70,MG76,G10,RS11]). Lorsque les excitations de forte amplitude entraînent un changement de timbre, le paradigme source-filtre n’est pas adapté : il apparaît des phénomènes non linéaires qu’il convient de capturer. Ce stage traite de ce sujet.

Sujet :

Dans ce stage, on propose de remplacer le filtre par un système développé en série de Volterra [V59,R81]. Avec cette modélisation, on ne cherche pas à déterminer un ensemble de filtres indexés par l’intensité de la source [HR15] mais une extension plus générale qui capture aussi les distorsions et intermodulations.

Après une bibliographique, en s’appuyant sur l’algorithme LPC (Linear Predictive Coding) et ses grands principes, , on développera un modèle dans lequel la source sera représentée par un processus stochastique et le système non linéaire par une série de Volterra paramétrique [H13]. On introduira un critère de système "le plus commun possible" basé sur un maximum de vraisemblance qu’on appliquera à une base de données de signaux. Cette méthode d’identification et de séparation sera ensuite utilisée pour construire un algorithme de synthèse sonore. Plusieurs instruments seront testés, dans la classe des instruments impulsifs (piano, cordes pincées, Fender-Rhodes, etc) ou auto-entretenus (cuivres, cordes frottées, etc).

Mots clés : Traitement du signal, Séries de Volterra, Algorithme de Linear Predictive Coding (LPC), Maximum de vraisemblance.

Profil du candidat : les conditions exigées pour ce stage sont les suivantes :

deuxième année de Master Recherche ; des connaissances en traitement du signal audio (déterministe et stochastique) ; la maîtrise du langage Python (et des modules NumPy et SciPy) ou de Matlab.

Bibliographie

[V59] V. Volterra. Theory of Functionals and of Integrals and Integro-Differential Equations. New York : Dover Publications, 1959.

[F70] G. Fant. Acoustic Theory of Speech Production. Mouton De Gruyter, 1970.

[MG76] J. D. Markel and Jr. A. H. Gray. Linear Prediction of Speech, Springer Verlag, Berlin, 1976

[R81] W. J. Rugh. Nonlinear System Theory, The Volterra/Wiener approach. The Johns Hopkins University Press, 1981.

[G10] R. M. Gray. Linear Preditive Coding and the Internet Protool : A survey of LPC and a History of Real time Digital Speech on Packet Networks, Now Publishers, 2010

[RS11] L. R. Rabiner, R. W. Schafer. Theory and Applications of Digital Speech Processing, Prentice-Hall, 2011

[H13] T. Hélie. Modélisation physique d’instruments de musique et de la voix : systèmes dynamiques, problèmes directs et inverses. HdR, UPMC, 2013.

[H15] Henrik Hahn. Expressive Sampling Synthesis - Learning Extended Source Filter Models from Instrument Sound Databases for Expressive Sample Manipulations. PhD, UPMC, 2015.


62. Analyse spatiale de scènes sonores enregistrées par des réseaux de microphones


Site : www.b-com.com
Lieu : Rennes
Encadrant : N. Epain, C. Verron, J.-Y. Aubie
Dates :du 01/02/2017 au 01/09/2017 (variable)
Rémunération :1 000 € Brut soit environ 850 € net
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Le stage sera réalisé au sein du laboratoire Nouveaux Formats Médias de l’IRT B<>com. Ce laboratoire étudie les nouvelles caractéristiques et dimensions de l’image (2D et 3D) et du son (spatialisé) afin d’augmenter le réalisme et l’impact des contenus. Avec l’engouement croissant pour les médias immersifs (vidéo 360, 3D) se développe le besoin de techniques de captation sonore permettant une restitution spatialisée. Dans ce contexte, il est désormais courant d’enregistrer une scène à l’aide de microphones multiples distribués dans l’espace. Un enjeu crucial est de pouvoir déterminer et suivre la position des microphones de manière à assister le rendu sonore de la scène enregistrée. L’objet de ce stage est de concevoir, mettre en œuvre et valider un outil d’analyse des signaux sonores permettant de déterminer la position relative des microphones.


63. Conception d’un modèle d’optimisation de portefeuille innovant


Lieu : 14/20 rue Pergolèse 75116 Paris
Encadrant : Schabaillie
Dates :06/02/2016 au 06/08/2016
Rémunération :Entre 1500 et 2000 euros brut par mois + primes
Mots-clés : Master SAR, autre qu’ATIAM

Description

JUMP est un progiciel français de gestion d’actifs conçu par une équipe de R&D 100% française et utilisé par des clients de différents pays pour gérer plus de 100 milliards d’euros.

Le but de ce sujet est d’intégrer au sein de ce progiciel Front to Back une fonctionnalité d’Optimisation de portefeuille. Il s’agit d’une fonctionnalité innovante non adressée par la plupart des acteurs du marché de la gestion Front to Back. Le but de cette fonctionnalité est de permettre de trouver la meilleure composition de portefeuille possible selon des contraintes données, ce qui constitue un problème NP complet. Le stagiaire sera donc amené à répondre à adresser des problématiques algorithmiques de haut niveau dans l’optique de réaliser un produit fini intégrable au progiciel JUMP. L’optimisation logicielle sera également un point prépondérant du sujet car les objectifs en termes de temps de réponse de cette fonctionnalité complexe sont élevés.

Dans le cadre de ce sujet de stage, le stagiaire verra les différentes étapes d’un projet informatique professionnel : étude, participation à la rédaction des spécifications détaillées, réalisation et validation d’un prototype, développement de la version cible, couverture par des tests unitaires, participation à la recette interne et assistance à la recette du client Dans le cadre de ce stage pré-embauche, le stagiaire sera intégré à une équipe agile constituée notamment d’ingénieurs expérimentés et amené à participer à la vie d’une équipe R&D. Il sera également amené à échanger avec des consultants finance de marché grande école (EDHEC, Dauphine…) dans le cadre des problématiques d’informatique financière.


64. Development of Parallel Algorithms for Spot


Site : Development of Parallel Algorithms for Spot
Lieu : Laboratoire de Recherche et Développement de l’EPITA (LRDE) (https://www.lrde.epita.fr) EPITA, Le Kremlin-Bicêtre (Porte d'Italie)
Encadrant : Etienne Renault, renault@lrde.epita.fr
Dates :à partir du 01/02/2017 (5-6 mois)
Rémunération :1000€ / mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

The Spot library (https://spot.lrde.epita.fr/) written in C++11 offers several algorithms and data structures to build model checkers. Such a tool checks whether the model of a system meets a given specification. One way to perform this verification is to encode both the specification and the model as omega-automata, build the synchronous product of the two previous automata and finally check wether the product automaton has an empty language. This last operation is called an emptiness check and deals with automata of millions of states and transitions. Recently many parallel emptiness checks have been proposed, each of them having strengths an weakness. Nonetheless it is still unknown if one of them outperform the others. Indeed, since all these algorithms are implemented in different tools, a fair comparison is impossible.

Prerequisites :
- have some experience in multithreading and C++ programming
- like to write clean and optimized code
- facilities with theoretical matters (especially Automata)

Objectives : The goal of this internship is :
- to implement optimized scalable versions of state-of-the-art emptiness checks
- to evaluate relative performances of each of them
- to help in the development of the thread-safe part of the Spot library by adding concurrent (possibly lock-free) data structures and algorithms.

Bibliographie

Parallel Explicit Model Checking for Generalized Büchi Automata : https://www.lrde.epita.fr/ renault/...

Improved Multi-Core Nested Depth-First : http://eprints.eemcs.utwente.nl/219...

Scalable Multi-core LTL Model-Checking : http://anna.fi.muni.cz/papers/src/p...


65. Service Problems within Highly Dynamic Distributed Systems


Site : Trac-Service Problems within Highly Dynamic Distributed Systems
Lieu : LIP6, project-team Inria REGAL, Campus Jussieu, 4 place Jussieu, 75005 Paris, France
Encadrant : Swan Dubois (swan.dubois@lip6.fr) and Franck Petit (franck.petit@lip6.fr)
Dates :01/02/2017 au 31/07/2017
Rémunération :Regular internship gratification by ANR project ESTATE

Description

The availability of wireless communications has drastically increased in recent years and established new applications. Humans, agents, devices, robots, and applications interact together through more and more heterogeneous infrastructures, such as mobile ad hoc networks (MANET), vehicular networks (VANET), (mobile) sensor and actuator networks (SAN), body area networks (BAN), as well as always evolving network infrastructures on the Internet. In such networks, items (users, links, equipments, etc.) may join, leave, or move inside the network at unforeseeable times.

The dynamics of such networks, the heterogeneity of devices, usages, and participants, and often the unprecedented scale to consider, make the design of such infrastructures extremely challenging. For a vast majority of them, the dynamics are also unpredictable. Furthermore, designing applications on top of such networks requires to deal with the lack of infrastructure and numerous topological changes.

Therefore, it becomes necessary to define and to develop new accurate models capturing the features of the considered objects : users’ mobility, system stability, dynamics of applications, etc.. Recently, numerous models for these harsh environments have been gathered in a general framework : the Time-Varying Graphs (TVGs). Based on this framework, REGAL team recently proposed a quite thoroughgoing study of fixed point problems (like maximal matching, minimal dominating set, etc.) in highly dynamic systems. In particular, some necessary and sufficient topological conditions are exhibited for these problems.

The main goal of this internship is to initiate a similar study about service problems in highly dynamic systems. We propose to focus on one of the following fundamental problems : Mutual Exclusion, Token Circulation, Propagation of Information with Feedback, etc.. All this problems received great attention in static systems but have barely been considered in the context of highly dynamic systems.

The scientific agenda is mainly threefold :

  • Studying service problems in the context of TVG with the goal to provide a specification that make sense in highly dynamic systems ;
  • Second, the main challenge is to produce necessary and sufficient conditions to enable existence of solutions to this specification in highly dynamic systems ;
  • Third, we would like to design some distributed algorithms that meet these necessary and sufficient conditions in order to obtain optimal solutions (with respect to impossibility results).

66. Stage sécurisation matérielle de l’hyperviseur modulaire SUPERCLOUD


Site : https://orange.jobs/jobs/offer.do?j...
Lieu : Orange Labs, Département de Sécurité Orange Gardens, 40-48, avenue de la République, 92320 Châtillon, France
Encadrant : Marc Lacoste, marc.lacoste@orange.com, 01 57 39 67 24 Alex Palesandro, alex.palesandro@orange.com
Dates :du 01/02/2017 au 31/07/2017
Rémunération :Rémunération stage Orange
Mots-clés : Master SAR, autre qu’ATIAM

Description

Dans les infrastructures cloud, la sécurité et l’isolation sont garanties par l’hyperviseur. Ce composant logiciel présente traditionnellement une architecture monolithique, ce qui impose aux utilisateurs une large base de confiance (TCB), et ne permet pas une définition à la carte de fonctionnalités de sécurité. Les hyperviseurs modulaires (e.g., Genode/Nova, Muen, SeL4) sont de nouvelles architectures d’hyperviseur permettant de dépasser ces limites : l’utilisateur peut sélectionner ses composants pour aboutir à un contrôle à la carte sur la couche de virtualisation, en y introduisant les services désirés (e.g. checkpointing, introspection, haute disponibilité). Par contre, aucune garantie par défaut n’est donnée sur le respect effectif de la volonté de l’utilisateur : aucun mécanisme de gestion de la confiance n’assure à l’utilisateur que seuls les composants qu’il aura sélectionnés seront exécutés.

Dans ce stage, vous analysez les technologies de gestion de la confiance (Intel SGX) des architectures modernes de processeurs et implantez un ou plusieurs mécanismes associés dans un prototype d’hyperviseur modulaire développé dans le cadre du projet européen SUPERCLOUD (https://supercloud-project.eu/) dont Orange est partenaire :

- Vous analysez les technologies de gestion de la confiance et d’isolation existants dans les architectures modernes de processeurs et comparez leurs approches.
- Vous concevez et développez un gestionnaire de confiance à partir d’un prototype d’hyperviseur modulaire développé dans le cadre du projet SUPERCLOUD.
- Vous évaluez le prototype en termes de sécurité et de performance, et par rapport aux solutions existantes (e.g., architectures de virtualisation Xen, KVM, Docker).
- Vous avez l’opportunité de publier vos travaux et résultats de recherche dans des conférences spécialisées dans le domaine ou auprès de la communauté OpenStack.
- Vous êtes intégré dans une équipe de recherche dynamique, à la pointe de l’innovation et de l’expertise sur la sécurité du cloud et de la cryptographie.
- Vous faites partie d’un écosystème de recherche largement international et contribuez aussi à un projet de recherche européen avec les meilleures équipes européennes de recherche en sécurité.

Bibliographie

[1] Projet SUPERCLOUD. https://supercloud-project.eu/ [2] F. McKeen et al. Innovative Instructions and Software Model for Isolated Execution. In HASP, 2013. [3] V. Costan and S. Devadas, Intel SGX Explained, eprint 2016/086. [4] P. Jain et al. OpenSGX : An Open Platform for SGX Research. In NDSS’16. [5] A. Palesandro, M. Lacoste, C. Ghedira-Guegan, N. Bennani. Nested Virtualization meets Micro-Hypervisors : Towards a Virtualization Architecture for User-Centric Multi-Clouds. First ComPAS Workshop on Cloud Security (SEC2), June 2015.


67. Architecture de sécurité étendue pour le supercloud


Site : https://orange.jobs/jobs/offer.do?j...
Lieu : Orange Labs, Département de Sécurité Orange Gardens, 40-48, avenue de la République, 92320 Chatillon, France
Encadrant : Marc Lacoste, marc.lacoste@orange.com, 01 57 39 67 24 Alex Palesandro, alex.palesandro@orange.com
Dates :du 01/02/2017 au 31/07/2016
Rémunération :Rémunération stage Orange
Mots-clés : Master SAR, autre qu’ATIAM

Description

Le Projet européen SUPERCLOUD (https://supercloud-project.eu/), dont Orange est partenaire, a défini une nouvelle architecture de virtualisation multi-clouds permettant l’exécution d’U-Clouds, ou clouds centrés utilisateurs, garantissant une protection uniforme entre plusieurs providers et offre un point centralisé d’orchestration des ressources. Cependant, plusieurs verrous restent à lever : (1) la gestion du cycle de vie des U-Clouds (e.g., développement, audit, mise en production) et la réponse automatique aux incidents de sécurité ; (2) l’intégration avec les technologies SDN pour optimiser la protection des services utilisateur et les flux de trafic entre providers (e.g., traffic engineering).

Dans ce stage :
- Vous concevez une architecture de virtualisation étendant les résultats actuels du projet européen SUPERCLOUD, pour y intégrer plusieurs services de sécurité et de virtualisation développés dans le département sécurité (e.g., orchestration de politiques de sécurité, monitoring sécurité réseau, chaînage d’appliances, virtualisation réseau SDN).
- Vous développez un prototype correspondant, qui sera étendu avec de premières briques de gestion automatique de la sécurité, prenant en compte les aspects computing (e.g., migration de VMs) et réseau (e.g., redirection de flux).
- Vous évaluez le prototype en termes de sécurité, de flexibilité, et de performance.
- Vous avez l’opportunité de publier vos travaux et résultats de recherche dans des conférences spécialisées dans le domaine ou auprès de la communauté OpenStack.
- Vous êtes intégré(e) dans une équipe de recherche dynamique, à la pointe de l’innovation et de l’expertise sur la sécurité du cloud et de la cryptographie.
- Vous faites partie d’un écosystème de recherche largement international.

Bibliographie

[1] Projet SUPERCLOUD. https://supercloud-project.eu/ [2] Marc Lacoste, Markus Miettinen, Nuno Neves, Fernando M.V. Ramos, Marko Vukolic, Fabien Charmet, Reda Yaich, Krzysztof Oborzynski, Gitesh Vernekar, Paulo Sousa. "User-Centric Security and Dependability in the Clouds-of-Clouds", IEEE Cloud Computing, vol. 3, no. , pp. 64-75, Sept.-Oct. 2016, doi:10.1109/MCC.2016.110.


68. Plateforme applicative de recommandation


Site : FRS Consulting
Lieu : FRS Consulting (Paris 03) + réunions LIP6 équipe MoVe
Encadrant : Jean-François Pradat-Peyre (LIP6) Gaëtan Le Chat (FRS Consulting)
Dates :du 01/02/2017 au 31/07/2017
Rémunération :1000 Euros brut par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Contexte : Cabinet de conseil spécialisé en, stratégie de l’innovation, FRS accompagne les entreprises innovantes pour bâtir leur stratégie de croissance et leur permettre de financer leurs projets. Fort d’une expertise scientifique et technique reconnue notamment dans les domaines d’avenir du numérique et des biotechnologies, ainsi que d’un savoir-faire unique pour établir des stratégies structurantes de financement public de l’innovation, FRS est un partenaire incontournable pour contribuer à la maturité des projets innovants, et pour convaincre les investisseurs publics de soutenir l’innovation proposée. Fort de notre expérience, nous faisons le constat suivant : • D’une part, une multitude de dispositifs de soutien à l’innovation et à la R&D existe mais ils restent mal pourvus et les entreprises françaises (particulièrement les PME) continuent à rencontrer des difficultés à mobiliser ces ressources. • D’autre part, les institutions, les décideurs ou bailleurs restent à la recherche d’informations, d’indicateurs et de mesures pertinentes pour piloter R&D et innovation.

Dans ce contexte, FRS Consulting met en place une plateforme applicative d’intermédiation du financement de l’innovation permettant d’informer, d’évaluer et de recommander les dispositifs d’aides aux entreprises innovantes. La mise en oeuvre de cet outil nécessite un travail important de modélisation, d’uniformisation et d’exploration des données aujourd’hui disponibles, par la théorie des graphes en particulier.

Le stage consistera à partir de données déjà recueillies et d’indicateurs en cours de définition d’automatiser la récolte des données, leur homogénéisation et le calcul automatique des indicateurs proposés afin d’en valider la pertinence ainsi que de proposer des moyens astucieux de visualiser ces indicateurs (en particulier en n’en choisissant que quelques uns afin de fournir une vue adaptée à un mode de projet en recherche de financement). Le stagiaire sera également amené à implémenter un moteur de base de données d’un graphe de connaissance sur les dispositifs d’aides

Ce travail sera l’une des fondations du moteur de recommandation, problématique centrale de la plateforme et qui fera l’objet d’une thèse au sein de la même société.

Rémunération : 1000 Euros brut par mois Période : février 2017 – juillet 2017 Lieu : FRS Consulting, Paris 03, LIP6, équipe MoVe

Contacts : Pr. J.-F. Pradat-Peyre (LIP6), M. Gaétan Le Chat, PhD, Chef de projet (FRS Consulting) jean-francois.pradat-peyre@lip6.fr, souheib.baarir@lip6.fr, francois.delbot@lip6.fr gaetan.lechat@frsconsulting.fr


69. Mitigation d’attaques réseaux en environnement virtualisé Linux


Site : Mitigation d’attaques réseaux en environnement virtualisé Linux
Lieu : Orange Gardens, Châtillon
Encadrant : Kahina LAZRI, Paul CHAIGNON kahina.lazri@orange.com, paul.chaignon@orange.com
Dates :A partir du 02/01/2017
Mots-clés : Master SAR, autre qu’ATIAM

Description

ENTITÉ

Au service de plus de 200 millions de clients sur les cinq continents, le Groupe Orange est l’un des principaux opérateurs de télécommunications dans le monde. Les Orange Labs constituent le réseau mondial d’innovation du Groupe Orange. Ils regroupent des chercheurs répartis au sein de 18 laboratoires sur 4 continents, à proximité des écosystèmes innovants, pour tirer parti des compétences locales, et être proches des nouveaux marchés. Le département Sécurité d’Orange Labs Product and Services fournit au Groupe Orange son expertise dans la protection des réseaux et services mobiles et fixes. Il propose des solutions innovantes pour protéger les réseaux et services du Groupe. Il participe à une démarche de gestion du risque lié aux nouveaux services et infrastructures.

VOTRE RÔLE

Les fonctions réseaux (parefeux, IDS/IPS, load balancers) sont traditionnellement implémentées au sein d’équipements physiques spécialisés. Cette implémentation physique permet d’atteindre de hautes performances mais offre peu de flexibilité dans la gestion des équipements avec de longs cycles de déploiement. Les capacités des équipements physiques doivent être prévues en excès en prévision des pics de demande.

Les récentes avancées dans l’acheminement et le traitement des paquets sous Linux (DPDK, eBPF, XDP) permettent d’envisager une implémentation logicielle de ce type de fonctions sur du matériel standard. Ainsi, les cycles de développement et de déploiement sont considérablement réduits.

Dans cette même direction, le paradigme NFV propose d’implémenter les fonctions réseaux sous forme de machines virtuelles (NetVM, ClickOS), permettant ainsi plus de flexibilité, notamment pour l’allocation des ressources. En effet, la capacité des VNF (de l’anglais Virtual Network Functions) peut être adaptée à la demande courante en ressources de chaque fonction réseau.

Durant ce stage, vous participerez aux activités de recherche sur l’application des technologies NFV à la sécurité des réseaux. Ces activités cherchent notamment à déterminer la viabilité d’une architecture NFV pour la mitigation d’attaques réseaux par déni de service. Vous étudierez les technologies NFV afin d’implémenter un prototype pour la mitigation d’attaques par déni de service.

Ce stage sera composé des étapes suivantes :
- État de l’art des dernières avancées dans le traitement des paquets au niveau du système d’exploitation : techniques de kernel bypass (DPDK, PF_RING, etc.) et pre-stack processing des paquets (eBPF, XDP).
- Reproduction d’attaques réseaux par déni de service (TCP SYN, fragmentation IP, amplification NTP, amplification DNS, etc.).
- Conception et développement d’un prototype de VNF pour la mitigation de ces attaques (en utilisant les techniques d’accélération du traitement des paquets adéquates).
- Évaluation des performances et du coût de la mitigation.

VOTRE PROFIL

Formation de niveau Bac +4/5 dans le domaine de l’informatique :
- Motivation pour l’investigation technique.
- Bonnes connaissances en noyau Linux.
- Connaissances en protocoles réseaux.
- Maîtrise du langage de programmation C.

Compétences appréciées :
- Sensibilisation à la sécurité.
- Connaissance du langage de script Python.

PLUS DE L’OFFRE

Vous rejoindrez les équipes de recherche du groupe Orange, acteur majeur des télécommunications. Vous développerez à la fois vos compétences en sécurité réseau et en système, vous préparant ainsi à de nombreux métiers en plein essor, dont Ingénieur Sécurité Infrastructure, Ingénieur Système et Ingénieur Sécurité Réseau. Les résultats de vos travaux seront publiés en open source et pourront donner lieu à la publication d’un article et/ou une présentation dans une conférence sécurité.


70. Optimisation de code pour programmes SDN


Lieu : Orange Gardens, Châtillon
Encadrant : Kahina LAZRI, Paul CHAIGNON kahina.lazri@orange.com, paul.chaignon@orange.com
Dates :A partir du 02/01/2017
Mots-clés : Master SAR, autre qu’ATIAM

Description

ENTITÉ

Au service de plus de 200 millions de clients sur les cinq continents, le Groupe Orange est l’un des principaux opérateurs de télécommunications dans le monde. Les Orange Labs constituent le réseau mondial d’innovation du Groupe Orange. Ils regroupent des chercheurs répartis au sein de 18 laboratoires sur 4 continents, à proximité des écosystèmes innovants, pour tirer parti des compétences locales, et être proches des nouveaux marchés. Le département Sécurité d’Orange Labs Product and Services fournit au Groupe Orange son expertise dans la protection des réseaux et services mobiles et fixes. Il propose des solutions innovantes pour protéger les réseaux et services du Groupe. Il participe à une démarche de gestion du risque lié aux nouveaux services et infrastructures.

VOTRE RÔLE

Avec l’émergence du paradigme de Software-Defined Networking, le contrôle des réseaux tend à être de plus en plus réactif et centralisé. Les protocoles SDN permettent plus de flexibilité dans le pilotage du réseau, mais ils accentuent le coût du monitoring (en particulier le monitoring de la sécurité). La plus grande réactivité du réseau accroît la quantité d’évènements réseaux émis. De plus, la forte centralisation des principaux protocoles (OpenFlow, OVSDB, etc.) complique le déploiement de solutions de monitoring réseau à grande échelle.

Au sein du laboratoire, nous étudions de nouveaux protocoles et langages qui offrent un meilleur compromis entre programmabilité et décentralisation. Un de ces langages, BPF (bytecode), permet de programmer les switches avec une plus grande finesse qu’OpenFlow ou OVSDB. Nous étudions notamment la possibilité d’utiliser ce langage pour réaliser des applications de monitoring de la sécurité.

En pratique, les applications sont écrites en C puis compilées en bytecode BPF pour être interprétées par les switches. Cependant, dans les switches, OpenFlow permet d’atteindre de meilleures performances que BPF. Nous souhaitons donc tirer parti des performances d’OpenFlow tout en conservant la plus grande expressivité du bytecode BPF.

Lors de ce stage, vous investiguerez différentes pistes pour optimiser l’exécution du bytecode BPF :
- Conception d’un algorithme (extension au compilateur LLVM) pour extraire des règles OpenFlow du bytecode BPF.
- Développement d’heuristiques pour l’aide à la mise en cache des résultats d’exécution.
- Optimisation des structures de données utilisées pour l’interprétation du bytecode.

Ce stage sera composé des étapes suivantes :
- État de l’art des travaux autour du langage BPF (compilateur, interpréteur, usages) et des switches programmables (OpenState, P4, etc.).
- Prise en main du compilateur et du langage en développant des applications simples pour la détection d’attaques réseaux.
- Conception et développement d’algorithmes pour optimiser l’exécution du bytecode BPF.
- Évaluation de l’efficacité de l’algorithme et des performances au niveau du switch.

VOTRE PROFIL

Formation de niveau Bac +4/5 dans le domaine de l’informatique.
- Maîtrise du langage de programmation C.
- Fort intérêt pour l’algorithmique.
- Connaissances en théorie des langages et en compilation.
- Connaissances de base en protocoles réseaux.

Compétence appréciée :
- Connaissance d’un langage haut niveau (Python, Java, etc.).

PLUS DE L’OFFRE

Vous rejoindrez les équipes de recherche du groupe Orange, acteur majeur des télécommunications. Vous développerez à la fois vos compétences en réseau et en algorithmique, dans le domaine actuellement en plein essor du Software-Defined Networking. Les résultats de vos travaux seront publiés en open source et pourront donner lieu à la publication d’un article et/ou une présentation dans une conférence sécurité.

Bibliographie

Pat Bosshart, Dan Daly, Glen Gibb, Martin Izzard, Nick McKeown, Jennifer Rexford, Cole Schlesinger, Dan Talayco, Amin Vahdat, George Varghese, and David Walker. 2014. P4 : programming protocol-independent packet processors. SIGCOMM Comput. Commun. Rev. 44, 3 (July 2014), 87-95.

Giuseppe Bianchi, Marco Bonola, Antonio Capone, and Carmelo Cascone. 2014. OpenState : programming platform-independent stateful openflow applications inside the switch. SIGCOMM Comput. Commun. Rev. 44, 2 (April 2014), 44-51.

Steven McCanne and Van Jacobson. 1993. The BSD packet filter : a new architecture for user-level packet capture. In Proceedings of the USENIX Winter 1993 Conference Proceedings on USENIX Winter 1993 Conference Proceedings (USENIX’93). USENIX Association, Berkeley, CA, USA, 2-2.

Andrew R. Curtis, Jeffrey C. Mogul, Jean Tourrilhes, Praveen Yalagandula, Puneet Sharma, and Sujata Banerjee. 2011. DevoFlow : scaling flow management for high-performance networks. SIGCOMM Comput. Commun. Rev. 41, 4 (August 2011), 254-265.

Christopher Monsanto, Nate Foster, Rob Harrison, and David Walker. 2012. A compiler and run-time system for network programming languages. SIGPLAN Not. 47, 1 (January 2012), 217-230.

Mina Tahmasbi Arashloo, Yaron Koral, Michael Greenberg, Jennifer Rexford, and David Walker. 2016. SNAP : Stateful Network-Wide Abstractions for Packet Processing. In Proceedings of the 2016 conference on ACM SIGCOMM 2016 Conference (SIGCOMM ’16). ACM, New York, NY, USA, 29-43.

Masoud Moshref, Apoorv Bhargava, Adhip Gupta, Minlan Yu, and Ramesh Govindan. 2014. Flow-level state transition as a new switch primitive for SDN. SIGCOMM Comput. Commun. Rev. 44, 4 (August 2014), 377-378.


71. Vers une utilisation efficace de la mémoire non volatile pour économiser l’énergie


Site : Trac-Vers une utilisation efficace de la mémoire non volatile pour économiser l’énergie
Lieu : LIP6 - Laboratoire d'Informatique de Paris 6, Campus Jussieu, 4 place Jussieu 75005 Paris
Encadrant : jonathan.lejeune@lip6.fr, franck.wajsburt@lip6.fr, Julien.Sopena@lip6.fr
Dates :01/03/2016 au 31/08/2016
Rémunération :554.40 euros (+35 euros de transport) par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Vers une utilisation efficace de la mémoire non volatile pour économiser l’énergie.

Pitch

L’arrivée des nouvelles technologies de mémoires non-volatile est une révolution qui oblige à repenser complètement la gestion de la mémoire dans les systèmes d’exploitations modernes. L’idée de ce stage est d’exploiter cette technologie pour économiser de l’énergie grâce à une approche originale.

Contexte

Depuis une dizaine d’années, le gain en performance des processeurs est obtenu par l’accroissement du nombre de c\oeurs de calcul par processeur essentiellement pour des raisons énergétiques. La quantité de mémoire volatile (RAM) devrait normalement augmenter en proportion, mais cette mémoire est très coûteuse en énergie ce qui contraint à borner sa quantité.

Une solution émerge avec les technologies de mémoires non-volatiles (NVRAM) qui sont désormais à un stade de production industrielle. Ces technologies ont plusieurs propriétés intéressantes : elles consomment peu d’énergie, sont très denses, adressables et, évidemment non-volatiles, i.e., les données persistent après arrêt de la machine. Si les premières technologies de type flash présentées une certaine lenteur et l’inconvénient de limiter le le nombre d’écritures par cellule ce qui les cantonnaient à un usage de stockage, ce n’est pas le cas des nouvelles technologies de NVRAM (Ferroelectric RAM, Magetic RAM, ...). On peut donc aujourd’hui envisager de les intégrer dans la mémoire centrale.

Objectifs du stage

Le but de ce stage est d’étudier un nouveau modèle de gestion de la mémoire permettant d’économiser de l’énergie en exploitant les mémoires non volatiles. Si ces dernières présentent intrinsèquement de bonnes propriétés énergétiques, l’originalité de l’approche réside dans une gestion globale des différentes couches mémoire. Ainsi, ce stage se propose de mettre en place une gestion dynamique de la mémoire RAM "classique" en alimentant que la partie nécessaire à un fonctionnement efficace du système. L’idée est de trouver le meilleur compromis entre performance et consommation.

Après un état de l’art sur les mémoires non volatiles, le stagiaire devra dans un premier temps proposer un modèle permettant d’évaluer le compromis performance/consommation des différentes configurations mémoire pour des workflows applicatifs donnés. Ce premier travail servira de base à la proposition d’une stratégie de redimensionnement de la RAM. Cette stratégie devra ensuite être évaluée expérimentalement en s’insérant dans le noyau Linux.

Compétences requises et développées

Le stagiaire doit avoir une bonne maîtrise du fonctionnement des systèmes d’exploitation UNIX, de la programmation noyau, des architectures matérielles et de la programmation C. Il développera des compétences sur l’exploitation de la NVRAM qui est une nouvelle technologie à fort potentiel autant dans le milieu industriel qu’académique.


72. Réservation de ressources dans un système dynamique


Site : Réservation de ressources dans un système dynamique
Lieu : LIP6 - Laboratoire d'Informatique de Paris 6, Campus Jussieu, 4 place Jussieu 75005 Paris
Encadrant : Julien.Sopena@lip6.fr et jonathan.lejeune@lip6.fr
Dates :01/03/2016 au 31/08/2016
Rémunération :554.40 euros (+35 euros de transport) par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Pitch

L’Internet des Objets (IoT) et la multiplication des terminaux mobiles posent de nouveaux défits en algorithmique distribuée. Dans ce stage, on propose de concevoir et d’implémenter un nouvel algorithme de réservation de ressources associant efficacement découverte et verrouillage.

Contexte

Les systèmes distribués actuels sont de plus en plus dynamiques avec la multiplication du nombre de terminaux mobiles et de la croissance incontestable de l’Internet des Objets (IoT). L’IoT est un système distribué massivement hétérogène et dynamique. Ces caractéristique impliquent de nouveaux défis de recherche dans le domaine des systèmes répartis. Ainsi, les unités de calcul mobiles ont des contraintes supplémentaires comme l’autonomie de leur batterie qui nécessite de considérer des algorithmes distribués peu coûteux en énergie (ex : transmission de messages, mémoire, etc.).

Sujet du stage

Dans ces nouveaux systèmes distribués fortement dynamiques se pose toujours le problème de la découverte et de la réservation des ressources disponibles. Problème d’autant plus prégnant que les applications modernes nécessitent l’usage simultané de plusieurs ressources : capteurs, actionneurs, autre terminaux mobiles, points d’accès, etc.

Cette généralisation du problème de l’exclusion mutuelle, connue sous le paradigme du Cocktail des Philosophes [CM84], a été très étudiées dans les systèmes distribués classiques. Malheureusement les solutions proposées se montrent innadaptées au contraintes des nouveaux systèmes dynamiques. En effet, elles considèrent un ensemble fixe de ressources identifiées et localisées. Or, si l’on peut supposer que les noeuds connaissent les types de ressources utilisables, ils sont souvent confrontés à une méconnaissance de l’existence et de la localisation de leurs exemplaires

L’objectif du stage est dans un premier temps de rédiger un état de l’art sur la réservation de ressources dans les systèmes dynamiques puis de produire et d’évaluer un algorithme distribué permettant de réserver efficacement un type de ressource donné dans un tel système. Une des pistes de départ pourra être d’associer la phase de découverte des ressources à un mécanisme de pré-reservation. L’objectif est non seulement de minimiser le coût du protocole, mais aussi de maximiser le taux d’utilisation des ressources.

Compétences requises et développées

Ce stage nécessite de bonnes connaissances en algorithmique distribuée et en programmation répartie. Le stagiaire aura l’opportunité d’utiliser la grille nationale académique Grid5000 [g5k] pour la partie expérimentale.


73. Réalisation d’un système de réservation et de gestion sous forme de web-service H/F


Site : Réalisation d’un système de réservation et de gestion sous forme de web-service H/F
Lieu : Siège social, Paris (75013)
Encadrant : Benjamin MATEO, CTO
Dates :du 06/02/2017 au 06/08/2017
Rémunération :1000€ / mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Gaby est une plateforme d’organisation de soirées romantiques à la demande avec une sélection personnalisée de services et des options à la carte.

Afin de développer son activité, Gaby souhaite développer une nouvelle version de son système informatique.

Le sujet de ce stage aborde les points suivants :

- Etudier la solution existante, en déterminant les points pouvant être améliorés pour que les outils utilisés par les collaborateurs de Gaby soient plus performants (réduction du temps d’organisation). Explorer la possibilité d’intégrer un algorithme de prise de décision, afin d’assister la sélection d’une activité à un profil client.

- Spécifier une solution intégrant les points mis en avant dans l’étude, qui devra prendre la forme d’un web-service, afin de faciliter la mise en place d’interfaces homme-machine multiples (notamment pour les interfaces réservées aux clients). Cette solution devra aussi faire appel à tous les services utiles de la chaine de production actuelle.

- Développer et le déployer la solution retenue dans un service cloud adapté aux besoins de la solution.

Enfin, afin de prouver la viabilité de la solution, au moins deux interfaces homme-machine devront être développées, une en technologies web et une dans un environnement mobile iOS et/ou Android.

Environnement logiciel : Java JEE, Hibernate, Stack Web Front, SQL, iOS, ( et/ou Android SDK), Git.


74. Extraction de lignes de produits logiciels


Site : Trac-Extraction de lignes de produits logiciels
Lieu : LIP6
Encadrant : Tewfik Ziadi Jabier Martinez
Dates :Stage de M2
Rémunération :Standard (LIP6)
Mots-clés : Master SAR, autre qu’ATIAM

Description

Contexte et objectifs :

Ce stage se positionne dans le contexte de l’ingénierie des lignes de produits logiciels. Une Ligne de Produits logiciels (LdP) est définie comme un ensemble de systèmes partageant un ensemble de propriétés communes et satisfaisant des besoins spécifiques pour un domaine particulier. La notion de variabilité est utilisée pour regrouper les caractéristiques qui différencient les produits de la même famille. La gestion de cette variabilité est la première activité pour le développement de lignes de produits. La deuxième activité concerne la construction d’un produit particulier (on parle aussi de dérivation de produit) qui consiste en particulier à figer certains choix vis-à-vis de la variabilité définie dans la LdP. Plusieurs travaux ont été proposés ces dernières années pour la manipulation des LdPs. L’idée de base de ces travaux consiste à :

  • proposer des mécanismes pour la spécification de la variabilité.
  • automatiser la dérivation de produits en utilisant les transformations de programmes et/ou de modèles.

L’approche de manipulation de LdP dans ces travaux devient donc descendante : la ligne de produits est modélisée en premier lieu et par la suite les produits sont dérivés. Cependant, il existe des cas où un grand nombre de produits similaires et dans le même domaine sont modélisés séparément, c’est-à-dire sans prise en compte de la notion de LdP et de la variabilité dès le départ. L’objectif de ce travail de recherche est d’étudier la possibilité d’entreprendre une approche ascendante pour la construction de la LdP à partir d’un ensemble de produits similaires. Nous souhaitons en particulier l’analyse de code source de produits similaire pour l’extraction d’une ligne de produits.

Les résultats de ce stage seront intégrés dans l’outil BUT4Reuse (https://but4reuse.github.io/) développé au sein du LIP6.

IMPORTANT : ce stage rentre dans le cadre d’un projet Européen qui démarre en janvier 2017. Plusieurs perspectives par la suite pour continuer en thèse de doctorat ou en poste d’ingénieur/dev.

Bibliographie :

  • P. Clements and L. Northrop, Software product lines : practices and patterns. Boston, MA, USA : Addison-Wesley Longman Publishing Co., Inc., 2001.
  • M. Acher, A. Cleve, P. Collet, P. Merle, L. Duchien, and P. Lahire, “Reverse Engineering Architectural Feature Models.” [Online]. Available : http://hal.inria.fr/inria- 00614984/en/
  • U. Ryssel, J. Ploennigs, and K. Kabitzsch, “Automatic variation-point identification in function-block-based models,” in GPCE, E. Visser and J. Järvi, Eds. ACM, 2010, pp. 23–32.

75. Algorithmes d’exclusion mutuelle pour les systèmes répartis dynamiques


Site : Trac-Algorithmes d’exclusion mutuelle pour les systèmes répartis dynamiques
Lieu : Equipe Regal (Inria/LIP6) 26-00, 2ème étage 4 Place Jussieu, 75252 Paris
Encadrant : Luciana Arantes, Denis Jeanneau, Pierre Sens (Prénom.Nom@lip6.fr)
Dates :01/02/2016 au 31/07/2016
Rémunération :550 € par mois

Description

Contexte et positionnement scientifique

Ce sujet a lieu dans le cadre du Laboratoire d’excellence (Labex) SMART. Les nouvelles architectures réparties comme les nuages, les réseaux de capteurs sans fils, et les réseaux ad hoc sont caractérisées par une leur très grande taille et une forte dynamicité des nœuds. La dynamicité est une propriété clé : les nœuds physiques dans le cadre de réseaux ad hoc ou virtuels dans le cadre de clouds peuvent arriver et partir à tout moment, être sujet à des fautes ou encore se déplacer (e.g., migration de machine virtuelle), ce qui entraîne une dynamicité des chemins dans le graphe de communication. Cela pose des nouveaux défis pour les algorithmes répartis qui usuellement considèrent des topologies connues et statiques. L’exclusion mutuelle répartie définie par Edsger W. Dijkstra (prix Turing 1972) [1, 2, 3] est un outil de synchronisation fondamental pour les applications partageant des ressources sur ces réseaux. Elle permet un accès cohérent en assurant qu’à tout instant au plus un processus manipule une ressource critique tout en garantissant l’avancement du système. D’autres problèmes d’algorithmique distribuée comme le consensus ont été étudiés dans les environnements dynamiques [4, 5], cependant l’exclusion mutuelle n’a à ce jour pas de solution dans les systèmes distribués dynamiques sujets aux pannes. Ce stage vise donc à étudier le problème de l’exclusion mutuelle répartie dans le cadre de ces grands systèmes où la topologie est fortement dynamique.

Objectif du stage

L’objectif de stage est de définir des algorithmes d’exclusion mutuelle adaptés aux topologies dynamiques, sans connaissance initiale du système par les processus. Ces algorithmes s’appuieront sur un modèle de graphe dynamique inspiré des TVG (Time Varying Graph) [6]. Outre l’aspect purement algorithmique il s’agit, d’un point de vue théorique, d’identifier les conditions nécessaires et suffisantes dans le graphe pour assurer la correction de l’algorithme tant en termes de sûreté (deux processus différents ne peuvent pas se trouver en section critique en même temps) qu’en termes de vivacité (si un processus correct tente d’entrer en section critique, alors, à terme, un processus correct entre en section critique). Les rares travaux existant sur l’algorithmique en présence de mobilité font l’hypothèse d’un système sans fautes [7]. Les problématiques sont donc les suivantes : Comment la dynamicité du système impacte-t-elle l’accès partagé à une ressource critique ? Quelles nouvelles hypothèses sont nécessaires et/ou suffisantes pour résoudre le problème dans un système dynamique en présence de fautes ?

Les solutions trouvées pourront être étendues au problème plus général de la k-exclusion mutuelle, qui consiste à allouer plusieurs ressources partagées (de même type ou non). Au delà de ces questions théoriques, on pourra s’intéresser à la complexité des algorithmes d’exclusion mutuelle dans un réseau dynamique. Pour étudier les performances des algorithmes trouvés, une implémentation à l’aide d’un simulateur à évènements discrets comme Peersim, Omnet++ ou JBotSim pourra être envisagée.

Bibliographie

[1] E.W. Dijkstra. Solution of a problem in concurrent programming control. Commun. ACM, 8(9) :569, 1965.

[2] L. Lamport. A New Solution of Dijkstra’s Concurrent Programming Problem. Commun. ACM, 17(8) :453–455, 1974.

[3] L. Lamport. The mutual exclusion problem : Parts I&II. J. ACM, 33(2) :313–348, 1986.

[4] F. Kuhn, N. A. Lynch, and Rotem Oshman. Distributed computation in dynamic networks. In STOC 2010, pages 513–522, 2010.

[5] M. Larrea, M. Raynal, I. Arriola, and R. Cortiñas. Specifying and implementing an eventual leader service for dynamic systems. IJWGS, 8(3) :204–224, 2012.

[6] A. Casteigts, P. Flocchini, W. Quattrociocchi, and N. Santoro. Time-varying graphs and dynamic networks. IJPEDS, 27(5) :387–408, 2012.

[7] P. Floriano, A. Goldman, and L. Arantes. Formalization of the Necessary and Sufficient Connectivity Conditions to the Distributed Mutual Exclusion Problem in Dynamic Networks. In NCA 2011, pages 203–210, 2011.


76. Utilisation de SMT-solver pour la génération automatique d’algorithmes répartis pour des réseaux de robots collaboratifs


Site : Trac-Utilisation de SMT-solver pour la génération automatique d’algorithmes répartis pour des réseaux de robots collaboratifs
Lieu : LIP6, UPMC 4 place Jussieu 75005 Paris
Encadrant : Souheib Baarir, Maria Potop-Butucaru, Nathalie Sznajder, Sébastien Tixeuil Contact : nathalie.sznajder@lip6.fr
Mots-clés : Master SAR, autre qu’ATIAM

Description

L’objectif du stage est d’utiliser des SMT-solvers pour la résolution de jeux à 2 joueurs, afin de l’appliquer à la synthèse automatique de protocoles pour des réseaux de robots évoluant de manière asynchrone.

Voir détails en pièce jointe.


77. Quantifying impacts of decentralized management in Smart Grids


Site : Equipe-Projet Myriads
Lieu : Laboratoire IRISA / Inria Rennes.
Encadrant : Anne-Cécile Orgerie (http://people.irisa.fr/Anne-Cecile.Orgerie ) Anne Blavette (http://www.mecatronique.ens-rennes.fr/membres-du-departement/mme-anne-blavette--273455.kjsp ) Martin Quinson (http://people.irisa.fr/Martin.Quinson )
Dates :01/02/2017 au 13/07/2017
Rémunération :Gratification
Mots-clés : Master SAR, autre qu’ATIAM

Description

Smart grids result from the combination of an electrical grid with a telecommunication network, including computing and communication resources. These resources participate in the supervision of the Smart Grid. This technology allows the power grid to be more flexible and therefore to integrate more potentially variable and unpredictable renewable energies, like photovoltaic energy for instance. Smarts Grids favor different complementary approaches : flexibilization of the demand, use of energy storage and voluntary shedding of part of the renewable electricity for example.

Classical approaches of the literature consider a centralized management of these computing and communication resources : all the information is routed on a single computer that calculates all the necessary optimizations. These optimizations are in return redistributed by the telecommunication network to the electrical network in order to be applied locally. This mode of operation brings the advantages of a centralized approach : complete system knowledge, and optimization algorithms applied to all data at the same time, thus potentially more efficient. However, this centralized management is difficult to scale, it requires a single computer to accomplish all calculation tasks (optimization algorithms) and it presents risks in terms of reliability (single-point-of-failure and all information transit over long distances).

In this internship, we want to evaluate the relevance of a decentralized approach : several computers are responsible for executing the optimization algorithms each for a distinct geographical area, asynchronously. The impacts of such a decentralized approach are manifold. On the one hand, the optimization algorithms obtain only partial information about the state of the electrical network, which influences their calculation time and also their efficiency. On the other hand, suitable algorithms should be used to determine the number and location of these computational resources.

The objective of this internship is to compare centralized and decentralized approaches for Smart Grids management. The aim is to quantify the impacts of a decentralized approach, in particular in terms of latency, cost, reliability and energy consumption.

Bibliographie

[1] « The Smart Grid : An Estimation of the Energy and CO2 Benefits », RG Pratt et al., Pacific Northwest National Laboratory, white paper US DOE, 2011.

[2] « Photovoltaic and wind energy systems monitoring and building/home energy management using ZigBee devices within a smart grid », N. Batista, R. Melicio, J. Matias, J. Catalao, Energy, vol.49, pages 306-315, Springer, 2013.

[3] « Modeling Smart Grid Applications with Co-Simulation », T. Godfrey, S. Mullen, D. Griffith, N. Golmie, R. Dugan, C. Rodine, IEEE Int. Conf. On Smart Grid Communications (SmartGridComm), 2010.

[4] « A survey on the communication architectures in smart grid », W. Wang, Y. Xu, M. Khanna, Computer Networks, vol.55 issue 15, pages 3604-3629, Elsevier, 2011.


78. Automating the Identification of CVEs that are Suitable for Detection with Coccinelle


Site : Trac-Automating the Identification of CVEs that are Suitable for Detection with Coccinelle
Lieu : LIP6/Ministère de la Défense
Encadrant : Julia Lawall
Dates :flexible
Rémunération :around 1500 euros/month
Mots-clés : Master SAR, autre qu’ATIAM

Description

1 Context

Common Vulnerabilities and Exposures (CVE) is a publicly available collection of vulnerabilities that have been detected in a wide range of software projects. Each entry in the collection has a unique identifier, a description of the vulnerability, and relevant links. CVE is widely used, both to indicate what vulnerabilities may be found in different versions of software projects and to highlight what kinds of vulnerabilities can occur in future code.

Coccinelle is a scriptable program matching and transformation engine for C code that has been developed over the last 10 years in the Whisper team at LIP6. Coccinelle is actively used in the Linux kernel developer community to perform source code evolutions and to find bugs. The development of bug finding rules for use with Coccinelle has, however, thus far been mostly ad hoc, without reference to collections of bugs found in practice, such as those in CVE.

2 Project

The goal of this project is to develop methodologies to enable the systematic use of Coccinelle to find instances of vulnerabilities listed in CVE. The main challenge in this work is to identify the kinds of vulnerabilities for whose detection Coccinelle is well adapted. Indeed, while Coccinelle excels at finding patterns of code that rely on software-specific functions and conventions, it is less successful at accurately detecting issues that depend on complex data flow and control flow dependencies. The goal of the project is to develop a tool that will accurately highlight vulnerabilities from CVE that are amenable to detection with Coccinelle, and that will provide the user with a collection of examples or other relevant information to guide them in writing a Coccinelle bug finding script. Such a tool should be set up so that it can be run regularly, as new vulnerabilities are added to the collection.

In order to become familiar with Coccinelle, this project will involve writing Coccinelle bug finding scripts, and may include the opportunity to contribute to the Linux kernel.

3 Background required

The project sits at the intersection between systems, programming languages, and software engineering. A strong background in one or more of these areas is essential for the project. To effectively build on the infrastructure already developed in the Whisper group, familiarity with OCaml programming is also preferred.

This project is expected to be carried out in collaboration with an industry partner. Due to the constraints of the industry partner, French nationality is required.

4 Application process

Please send a CV, courses and grades for the bachelor and master’s degrees (to the extent available), and a letter of motivation to Julia.Lawall@lip6.fr. The letter of motivation should describe the applicant’s background in the areas of the project, reason for interest in the project, and future plans. Applications will be considered as they are received.

Bibliographie

[1] Coccinelle. http://coccinelle.lip6.fr/.

[2] CVE. https://cve.mitre.org/.

[3] OCaml. http://ocaml.org.

[4] Y. Padioleau, J. L. Lawall, R. R. Hansen, and G. Muller. Documenting and automating collateral evolutions in Linux device drivers. In EuroSys, pages 247–260, 2008.

[5] Y. Padioleau, J. L. Lawall, and G. Muller. Understanding collateral evolution in Linux device drivers. In EuroSys, pages 59–71, 2006.

[6] N. Palix, G. Thomas, S. Saha, C. Calvès, J. L. Lawall, and G. Muller. Faults in Linux : ten years later. In ASPLOS, pages 305–318, 2011.

[7] R. K. Saha, J. Lawall, S. Khurshid, and D. E. Perry. On the effectiveness of information retrieval based bug localization for C programs. In ICSME, pages 161–170, 2014.


79. Algorithme de clustering pour la formation des groupes Wi-Fi Direct


Site : Trac-Algorithme de clustering pour la formation des groupes Wi-Fi Direct
Lieu : LIP6 (Equipe Phare et Regal)
Encadrant : Thi-Mai-Trang Nguyen (trnguyen@lip6.fr) et Pierre Sens (Pierre.Sens@lip6.fr)
Dates :01/02/2017 ai 31/07/2017
Rémunération :550 € par mois

Description

Wi-Fi Direct est un nouveau mode de communication dans lequel un terminal est élu pour assumer le rôle de point d’accès du groupe. L’utilisation du Wi-Fi Direct peut aider à améliorer les performances dans les réseaux sans-fil denses [1]. Ce mode de communication est particulièrement intéressant dans le contexte où un grand nombre de tablettes est utilisé pour l’enseignement dans un amphi ou dans une salle de TP sans PC. Les tablettes peuvent partager les données entre elles pour réduire le volume du trafic du point d’accès, ainsi que le trafic vers le serveur distant. Dans le contexte de ce stage, nous nous intéressons aux algorithmes de clustering qui permet de former efficacement les groupes de communications Device-to-Device (D2D). Nous étudions trois cas d’usage : le partage de vidéo, le partage de fichiers et les connexions à distance. L’objectif est d’amener à une qualité de service adéquate dans cet environnement. Les tâches détaillées du stage sont les suivantes :

  • Une étude bibliographique sur les algorithmes de clustering et le protocole Wi-Fi Direct.
  • Mettre en place un testbed simple (un serveur au LIP6 et des clients sur les tablettes) pour une étude préliminaire des qualités d’expérience et de qualité de service dans un amphi. Les mesures dans ces tests serviront également à alimenter ultérieurement des paramètres des simulations.
  • Réaliser des simulations sous Omnet++ [2,3] avec une configuration réaliste des communications dans cet environnement (le nombre de tablettes, la position des tablettes, la puissance de transmission, les applications utilisées et la connexion du point d’accès vers le serveur).
  • Analyser les résultats et identifier les causes des problèmes de qualité de services rencontrés (débit inadéquat, interférences élevées, débordement des tampons mémoires au niveau applicatif, temps d’attente trop élevés, taux de perte des paquets).
  • Proposer un algorithme de clustering et un plan de contrôle pour gérer la formation des groupes WiFi Direct dans un réseau dense. L’étudiant pourra utiliser des heuristiques et l’architecture SDN (Software-Defined Networking) [4] si nécessaire.
  • Implémenter la solution proposée et évaluer ses performances par simulation.
  • Il est souhaitable de réaliser un prototype (une implémentation simple sur quelques nœuds) sous la forme d’une application à installer dans des tablettes Android et/ou iPad pour un proof-of-concept du système proposé.

Bibliographie

1. S. Iskounen, T.M.T Nguyen, S. Monnet and L. Hamidouche, “Device-to-Device Communications Using Wi-Fi Direct for Dense Wireless Networks”, short paper, IEEE/IFIP International conference on Network of the future (NoF), November 2016.

2. S. Iskounen, T.M.T. Nguyen and S. Monnet, “WiFi-Direct Simulation for INET in OMNeT++”, OMNeT++ Community Summit, Brno, Czech Republic, September 2016.

3. http://www-phare.lip6.fr/ trnguyen/...

4. I. Ku, Y. Lu and M. Gerla, “Software-Defined Mobile Cloud : Architecture, Services and Use Cases”, International Conference on Wireless Communications and Mobile Computing (IWCMC), Nicosia, August 2014.

5. M Castro, P. Druschel, A-M. Kermarrec, A. Nandi, A. Rowstron, and A. Singh, “SplitStream : highbandwidth multicast in cooperative environments”, In Proceedings of the nineteenth ACM symposium on Operating systems principles (SOSP ’03). ACM, New York, NY, USA, 298-313.


80. Ordonnancement tolérant aux fautes en minimisant la consommation d’énergie dans les environnements répartis


Site : Trac-Ordonnancement tolérant aux fautes en minimisant la consommation d’énergie dans les environnements répartis
Lieu : LIP6 - équipes Régal et Recherche Opérationnelle
Encadrant : Luciana Arantes (équipe Régal - LIP6/INRIA), Evripidis Bampis (équipe RO- LIP6) et Giorgio Lucarelli (LIG/INRIA), Pierre Sens (équipe Régal - LIP6/INRIA).
Dates :01/02/2017 au 31/07/2017
Rémunération :550 euros

Description

Le but de ce stage est d’étudier et de proposer des solutions pour le problème d’optimisation d’ordonnancement des tâches dans un système réparti (e.g., Cloud) en prenant en compte la consommation d’énergie et la tolérance aux pannes.

Nous sommes particulièrement intéressés à la méthode proposée par Cavelan et al. [1], dénotée overscaling, qui, afin de réduire la consommation d’énergie, exécute les tâches sur un voltage inférieur à un seuil. Cependant, dans ce cas, des erreurs temporelles (timing errors) peuvent se produire et, par conséquent, les tâches peuvent échouer. Il est alors nécessaire de les exécuter avec un voltage supérieur. Les erreurs ne sont pas prévisibles à l’avance mais si une tâche échoue sur un voltage donné (inférieur au seuil), alors ré-exécuter la même tâche sur ce même voltage ou sur des voltages inférieurs donnera la même erreur. Dans le modèle, chaque voltage Vi possède une probabilité d’erreur pi et un coût énergétique par tâche ci. De plus, il y a un coût pour changer le voltage d’une machine de Vi à Vj. L’objectif alors est de développer une méthodologie afin de minimiser la consommation d’énergie nécessaire pour exécuter toutes les tâches en considérant la possibilité de réduire les voltages des machines mais aussi la probabilité de fautes et le coût que cette réduction induit.

Dans un premier temps, nous considérons une seule machine et un ensemble fini de tâches indépendantes à ordonnancer avec le même coût en termes de calcul et vitesse d’exécution sur un même voltage. Puis, nous étudierons un environnement réparti avec plusieurs machines dont le voltage est fixé à l’avance et le transfert (migration) de tâches entre machines a un coût. Finalement, nous étendrons la solution précédente en envisageant un ordonnancement de tâches sur plusieurs machines réparties qui ont chacune un nombre fixe de voltages et capable de commuter d’un voltage à l’autre (inférieur au seuil ou non), mais avec un certain coût.

Une étude et des solutions préliminaires à ce problème d’optimisation d’ordonnancement avec une seule machine se trouvent dans [2].

Bibliographie

[1] Aurélien Cavelan, Yves Robert, Hongyang Sun, Frédéric Vivien, Scheduling Independent Tasks with Voltage Overscaling, Proceedings of the 21st IEEE Pacific Rim International Symposium on Dependable Computing (PRDC 2015), 2015.

[2] Marwan Ajem Scheduling in the Clouds, Master Technical Report, Sep. 2016


81. Ingénieur Etudes & Développement JAVA/JEE


Site : Stagiaire Ingénieur Etudes & Développement JAVA/JEE
Lieu : 17 Boulevard des Capucines Paris - 75002
Encadrant : Régis MENET, Directeur R&D
Dates :06/02/2017 au 31/07/2017
Rémunération :1200€ / mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Entreprise :

Grâce à une large gamme de solutions technologiques web et mobiles, ATEXO est devenu, en 15 ans, un éditeur de logiciels de référence auprès des Grands comptes publics (Ministères, Régions et Départements, grandes villes et agglomérations, grands établissements publics).

Faire le choix d’ATEXO c’est :  Rejoindre une entreprise au coeur des enjeux de modernisation SI des acteurs du Secteur Public ;  Capitaliser et développer ses compétences au sein d’une structure à taille humaine, conviviale et dynamique ;  Prendre rapidement des responsabilités au sein d’une entreprise à l’esprit « start-up » favorisant les initiatives entrepreneuriales (lancement de nouvelles offres, mise en oeuvre de nouvelles méthodologies de développement logiciels …)

N’hésitez plus, venez nous rencontrer en plein coeur de Paris (Place de l’Opéra) !

Notre croissance soutenue nous amène à recruter de nouveaux talents désireux de s’investir et de participer à cette belle réussite d’entreprise.

Mission : Les environnements Open source JAVA vous passionnent et vous souhaitez évoluer en environnement Agile Scrum, vous êtes au bon endroit ! Vous intégrerez notre équipe de développement et serez amené(e) à :

 Participer en amont aux phases d’étude et de conception technique  Réaliser les développements de nouvelles fonctionnalités ou améliorer les composants existants  Prendre en charge la documentation associée et à garantir la qualité des livrables

Environnement technique :

 Spring 4  Hibernate 3  GWT 2, Spring-MVC, Angular2  Junit  SOAP, API REST  XML, HTML, Javascript, Jquery  Apache Tomcat,  MySQL  Jenkins, Maven, GIT, JIRA

Profil recherché : Etudiant(e) en école d’ingénieurs, vous disposez d’un fort intérêt pour les technologies Objet. Autonome, impliqué et doté d’un bon relationnel, vous souhaitez intégrer une structure à taille humaine dans laquelle votre esprit d’initiative sera reconnu et valorisé.

Voici de plus amples informations sur la mission qui sera confiée au stagiaire : LOCAL TRUST RSEM est un logiciel de gestion de rédaction et passation des marchés publique open source. Ce logiciel est composé des modules suivants :

- Passation : gestion des procédures de leur définitions jusqu’à leur attribution
- Commission : gestion des commissions
- Exécution : suivi de l’exécution des marchés une fois attribué
- Administration : gestion de l’ensemble de la configuration fonctionnelle nécessaire au logiciel RSEM pour fonctionner

Le but du Stage est de développer (refonte en repartant de zéro) le module administration en utilisant les technologies suivantes :

- Spring 4 : Core, Spring security, Spring MVC
- Angular 2
- Maven
- JIRA

Le stagiaire sera intégré dans l’équipe technique et participera au process scrum.


82. Bayesian Model Selection for Matrix and Tensor Factorization Models


Site : Signal, Statistiques, Apprentissage (ex AAO et STA)
Lieu : Télécom ParisTech 46 rue Barrault, 75013 Paris
Encadrant : Umut Simsekli (Télécom ParisTech), Roland Badeau (Télécom ParisTech), Gaël Richard (Télécom ParisTech)
Dates :3 à 6 mois entre février et septembre 2017
Rémunération :de l’ordre de 550 € / mois
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Traitement du signal

Description

Matrix and tensor factorization provides a unifying view of a broad spectrum of techniques in machine learning and signal processing ; topic modeling, multitask learning, transfer learning, multiple kernel learning, dimensionality reduction, matrix completion, source separation, network analysis or certain deep learning problems can all be framed as some kind of factorization problems. Thanks to this generic nature, these models have proven very successful in several application fields such as audio signal processing, text processing, bioinformatics, computer vision, social media analysis, or network traffic analysis. The performance of matrix and tensor factorization models heavily relies on the "rank" of the factorization. Estimating this rank is a challenging problem and is a very active research question. The main goal of this research internship is to investigate and develop new Bayesian model selection techniques for rank estimation in matrix and tensor factorization models. In this field, we have already conducted some research, where we developed the "Stochastic Thermodynamic Integration" (STI) algorithm [1], which is one of the first computationally efficient Bayesian model selection algorithms that can scale up to very large problems. The main objectives of this research internship are as follows :

  1. Extending STI by using our recent works [2,3] in order to increase its speed of convergence
  2. Applying the developed methods on rank estimation for real matrix and tensor factorization problems such as audio source separation and/or recommendation systems

Within this internship, we are expecting at least one scientific publication that would be published in a leading conference or journal. Successful internships can be followed by a fully funded PhD position, supported by ANR.

Mots clés Matrix factorization, Tensor Factorization, Bayesian Statistics, Markov Chain Monte Carlo, Large-Scale Machine Learning

Profil du candidat :

  • étudiant titulaire d’un master 2 recherche
  • Apprentissage statistique
  • Bon niveau en programmation (Matlab, C/C++, ou Python)
  • Bon niveau d’anglais

Candidatures à envoyer à umut.simsekli@telecom-paristech.fr ; roland.badeau@telecom-paristech.fr ou Gael.Richard@telecom-paristech.fr avec

  • Curriculum Vitae
  • Lettre de motivation personnalisée expliquant l’intérêt du candidat sur le sujet (directement dans le corps du mail)
  • Relevés de notes des années précédentes
  • Contact d’une personne de référence

Bibliographie

Références

  1. U. Şimşekli, R. Badeau, G. Richard, A. T. Cemgil, “Stochastic Thermodynamic Integration : Efficient Bayesian Model Selection via Stochastic Gradient MCMC”, IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP), Shanghai, China, 2016
  2. U. Şimşekli, R. Badeau, A. T. Cemgil, G. Richard, “Stochastic Quasi-Newton Langevin Monte Carlo”, International Conference on Machine Learning (ICML), New York, NY, USA, 2016
  3. A. Durmus, U. Şimşekli, E. Moulines, R. Badeau, G. Richard, “Stochastic Gradient Richardson-Romberg Markov Chain Monte Carlo”, Advances in Neural Information Processing Systems (NIPS), Barcelona, Spain, 2016

83. MOOC Analytics


Site : ANEO - Cerlce Bid Data & Analytics
Lieu : 122 Avenue du Général Leclerc, 92100 Boulogne-Billancourt
Encadrant : Boris Demay Wilfried KIRSCHENMANN
Dates :15/02/2017 au 31/08/2017
Rémunération :1200€/mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Cherchant à renforcer la place en Europe des MOOC en santé publique et santé globale, le centre Virchow-Villermé a mis en place le projet #MOOCLive. Au sein du projet #MOOCLive, ANEO se fixe comme objectif d’innovation principal la modélisation automatique des participants. L’objectif principal d’innovation trouve sa source dans les axes stratégiques de recherche et développement que poursuit ANEO : la valorisation des données et la connaissance du comportement humain. Le but de ce travail est d’améliorer la construction des Mooc pour qu’ils soient plus adaptés aux utilisateurs. Pour se faire, il est essentiel de donner un retour à l’équipe pédagogique quant à l’utilisation du Mooc tout au long de son déroulement. Les intérêts d’un tel retour sont nombreux : évolution de la structure du Mooc, mise en place de plus d’aide pour l’utilisateur, identification de point critique (ex : vidéo trop compliquée), …   Intégré au sein de l’équipe Big Data & Analytics, tu concevras un outil d’analyse de l’utilisation d’une plateforme de cours en ligne. Cet outil permettra de : Suivre l’évolution des utilisateurs en temps réel Etudier le parcours des utilisateurs Identifier les utilisateurs actifs et non actifs Etudier l’activité des utilisateurs sur le forum …

Profil recherché : Formation Bac + 4/5 avec une spécialisation en Tu as une première expérience avec une bibliothèque Javascript de visualisation (d3.js, vis.js, …) Tu maitrises Python Un plus : Tu fonctionnes souvent par analogie Tu emploies souvent des mots du champ lexical visuel


84. Conception d’un outil de classification semi-supervisé (Partie Algo)


Site : ANEO - Cerlce Bid Data & Analytics
Lieu : 122 Avenue du Général Leclerc, 92100 Boulogne-Billancourt
Encadrant : Boris Demay Wilfried KIRSCHENMANN
Dates :15/02/2017 au 31/08/2017
Rémunération :1200€/mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Parmi les nombreuses méthodes d’apprentissage récemment apparues, de nouvelles méthodes de classification connaissent des succès importants. Ces méthodes opèrent sans exemples de classes (non-supervisées), ou bien sous contraintes (semi-supervisées).   Ces dernières permettent d’améliorer les performances en combinant les données avec labels (en faible nombre) et sans labels (en grand nombre). L’apprentissage actif (ou Active learning) est un modèle d’apprentissage semi-supervisé. L’apprentissage actif permet au modèle de construire son ensemble d’apprentissage au cours de son entraînement, en interaction avec un expert (humain).   Pour résoudre un grand nombre de nos problématiques de classification, nous souhaitons mettre en place un outil d’active learning.   Intégré au sein de l’équipe Big Data & Analytics, tu établiras un état de l’art des algorithmes d’apprentissage actif et tu en implémenteras. Tu travailleras conjointement avec la personne en charge de l’application afin d’intégrer les algorithmes.

Profil recherché : Formation Bac + 4/5 Ecole d’Ingénieur ou d’informatique ou Université Tu t’es spécialisé dans les Data Sciences Tu maitrises Python Un plus : Tu connais une bibliothèque Javascript de visualisation de données (d3.js, vis.js, …) Tu as une expérience dans les Data Sciences en particulier dans l’apprentissage semi-supervisé


85. Antidote log replication


Site : Équipe Regal Inria/LIP6
Lieu : Paris, Jussieu (LIP6)
Encadrant : Dimitri Vasilas, Alejandro Tomsic, Marc Shapiro
Dates :01/02/2017 – 31/07/2017
Rémunération :indemnité de stage
Mots-clés : Master SAR, autre qu’ATIAM

Description

Antidote is a cloud database developed by the Regal team at LIP6. Antidote guarantees both availability (data is writeable and readable at all times) and high level of consistency (transactional causal consistency). To achieve high performance and scalability, a datacentre is composed of high number of servers, each storing a disjoint subset of data, running concurrently. However, a datacentre must provide the abstraction of a totally-ordered transaction log.

The transaction execution protocol, called Clock-SI [1], allows for concurrency between servers and is based on timestamps. Each server involved in a transaction logs its updates locally, and timestamps them using its own real-time clock. The transaction manager computes the transaction’s timestamp (i.e. its place in the datacentre-wide log) as the maximum of the local timestamps.

The Clock-SI specification does cater for redundancy ; thus, failure of a single server will lead to a total datacentre failure. The aim of the internship is to replicate the log from one server to two different ones to improve availability in case of failure.

Log replication is a well-known problem. It is is traditionally resolved by an algorithm such as Paxos [2], RAFT [3] or Chain Replication [4]. The drawback of using this approach in a transactional system is the two layers of synchronisation, one at the level of the server log (for replication) and the other at the level of the datacentre log (for commitment), but appears to be relatively easy to combine with Clock-SI. The more recent Inconsistent Replication protocol [5] only requires the commitment-level synchronisation ; however, its application to Clock-SI is challenging, due to the maximum timestamp computation. A possible (and untested) third alternative would be to leverage Antidote’s asynchronous geo-replication mechanism.

The intern shall study the different log replication algorithms, select the most appropriate one (for both Clock-SI and Antidote), implement it and perform benchmarks. The findings may become subject to a scientific publication.

Bibliographie

[1] Jiaqing Du, Sameh Elnikety, and Willy Zwaenepoel. Clock-SI : Snapshot isolation for partitioned data stores using loosely synchronized clocks. In Symp. on Reliable Dist. Sys. (SRDS), pages 173–184, Braga, Portugal, October 2013. IEEE Comp. Society. doi : 10.1109/SRDS.2013.26. URL http://doi.ieeecomputersociety.org/.... 2013.26.

[2] Leslie Lamport. Paxos made simple. SIGACT News (Dist. Comp. Column), 32 (4):18–25, December 2001. doi : http://doi.acm.org/10.1145/568425.568433. URL http://research.microsoft.com/users....

[3] Diego Ongaro and John K. Ousterhout. In search of an understandable consensus algorithm. In Usenix Annual Tech. Conf., pages 305–319, Philadelphia, PA, USA, June 2014. URL https://www.usenix.org/conference/a....

[4] Robbert van Renesse and Fred B. Schneider. Chain replication for supporting high throughput and availability. In Symp. on Op. Sys. Design and Implementation (OSDI), pages 91–104, San Francisco, CA, USA, December 2004. Usenix, Usenix. URL http://www.usenix.org/events/osdi04....

[5] Irene Zhang, Naveen Kr. Sharma, Adriana Szekeres, Arvind Krishnamurthy, and Dan R. K. Ports. Building consistent transactions with inconsistent replication. In Symp. on Op. Sys. Principles (SOSP), pages 263–278, Monterey, CA, USA, October 2015. ACM SIG on Op. Sys. (SIGOPS), Assoc. for Computing Machinery.


86. Optimisation d’un moteur de requêtes relationnelles.


Site : Société Intersec SA
Lieu : La Défense (92)
Encadrant : Monsieur Alexis BRASY
Dates :Du 6 février 2017 au 4 août 2017
Rémunération :1000€ brut par mois + avantages en nature

Description

Pour répondre aux contraintes du big data, différents systèmes de gestion de bases de données ont été développés en interne. L’objectif est ici d’optimiser les requêtes sur ces bases de données.

Les compétences techniques nécessaires pour le stage sont : • Développement en langage C, • Maîtrise de l’environnement Unix, • Test et écriture de tests automatisés.

Missions : • Recherche des optimisations réalisables sur des requêtes simples ou des requêtes déjà existantes. • Développement de passes d’optimisation du plan d’exécution des requêtes. • Ecriture de tests automatisés permettant de valider le développement. • Réalisation de tests d’intégration dans le produit. • Analyse et développement d’optimisations pour cas pathologiques.


87. Implantation et intégration d’un framework haut-niveau dédié à la communication au sein d’un système embarqué


Site : http://www.ciele.fr/m-119-2016-RD-S...
Lieu : bureau d’étude CIELE Ingénierie – Créteil Europarc – Métro L8 Créteil Pointe du Lac
Encadrant : Gilles Lasnier
Dates :01/03/2017
Rémunération :900 – 1100 € selon profil
Mots-clés : Master SAR, autre qu’ATIAM

Description

Contexte


CIELE Ingénierie est une entreprise spécialisée dans le développement de solutions embarquées électroniques et logicielles. Les solutions développées par CIELE sont aujourd’hui intégrées dans les domaines d’expertises dits critiques tels l’avionique, l’automobile, le ferroviaire et la défense.

CIELE développe aujourd’hui des solutions basées sur une nouvelle architecture matérielle dénommée SoC FPGA . Le SoC FPGA intègre au sein d’une unique puce un processeur physique ASIC (e.g. ARM/Cortex-A9 double-cœur) et un FPGA. Cette architecture permet de combiner les avantages de l’ASIC (fréquence élevée, utilisation d’un OS embarqué et des applicatifs haut-niveau, IHM, etc.) à ceux du FPGA (accélération matérielle, acquisition et traitement de larges volumes de données à haut débit, etc.). Si les bénéfices sont conséquents, l’intégration de cette architecture est complexe et nécessite la modification du processus de développement traditionnel des systèmes embarqués basé sur ces technologies.

L’initiative R&D de CIELE est de proposer des outils permettant de concevoir, de valider et d’accélérer le déploiement des briques matérielles et logicielles constituants le système embarqué. Ainsi, ces briques doivent être réalisées afin de satisfaire des critères de généricité et de configuration importants tout en minimisant l’impact de ces derniers sur les performances du système.

Objectifs et travail à réaliser


CIELE dispose de briques logicielles dîtes « bas-niveau » traitant des problématiques de la communication inter processus, intra processus et distribuée (IPC, segments de mémoire partagée, socket, etc). L’augmentation de la complexité des systèmes embarqués nous amène aujourd’hui à considérer un framework dît de « haut-niveau » implantant une couche d’abstraction pour faciliter l’échange de données entre les différents nœuds d’un système et proposant de mutiples patrons de communication.

Pour ce faire, il sera nécessaire d’étudier les solutions existantes et innovantes utilisables dans le contexte du développement d’un système embarqué industriel :
-  Intergiciel dédié à l’embarqué (TAO ACE, PolyORB-HI, CORBA, etc…)
-  Intergiciel orienté message
-  Librairie haut-niveau (RabbitMQ, Mangos, ZeroMQ, nanomsg, etc…)
-  …

Les objectifs de ce stage sont :
-  Faire un état de l’art industriel sur les solutions actuelles traitant de la communication entre les différents nœuds d’un système embarqué.
-  Définir les patrons de communication haut-niveau requis par un système embarqué
-  Définir les critères de généricité et de configuration
-  Définir et valider l’architecture du framework
-  Implanter le framework.

On cherchera en particulier à capitaliser sur les briques logicielles existantes utilisées dans les projets industriels de l’entreprise. L’intégration de librairies logicielles ou de frameworks fournis par des tiers peut être envisagée en fonction de certains critères à définir.

La validation s’effectuera sur un projet industriel de CIELE Ingénierie.

Prérequis et apports du stage


Le stage présentant une partie pratique assez importante, il est nécessaire d’avoir une expérience raisonnable de la programmation. Il permettra d’acquérir une solide expérience dans le développement des services « cœurs » d’un système embarqué. Il sera l’occasion de se familiariser avec un processus de développement éprouvé, des techniques de conception et des techniques d’implantation dédiées aux systèmes embarqués industriels.

Ces travaux seront intégrés dans le processus de développement logiciel de l’entreprise. En fonction des résultats, ce stage peut déboucher sur une embauche.

Profil


SStage ingénieur de niveau bac + 5, spécialisation systèmes logiciels embarqués.

Connaissances souhaitées : — Architecture d’un système embarqué — Architecture microcontrôleur, SoC FPGA — Programmation baremetal, Linux embarqué — Programmation C, C++, scripts, Makefile, CMake… — Logiciel de gestions de versions SVN, Git, Mercurial…

Informations administratives


RResponsables du stage : — G. Lasnier (gilles [DOT] lasnier [AT] ciele.fr) — C. Palarino (cedric.palarino@ciele.fr)

Encadrants du stage : — G. Labrouche (gregory.labrouche@ciele.fr) — G. Lasnier (gilles [DOT] lasnier [AT] ciele.fr)

Lieu du stage : bureau d’étude CIELE Ingénierie – Créteil Europarc – Métro L8 Créteil Pointe du Lac

Rémunération : 900 – 1100 € selon profil

Durée : six mois


88. Evolution du séquenceur de tâche pour les produits à base de microcontrôleur.


Site : http://www.ciele.fr/m-118-2016-RD-S...
Lieu : bureau d'étude CIELE Ingénierie - Créteil Europarc - Métro L8 Créteil Pointe du Lac
Encadrant : - V. Rogeon (vincent.rogeon@ciele.fr) - C. Palarino (cedric.palarino@ciele.fr)
Dates :01/03/2017
Rémunération :900 € 1100 € selon profil
Mots-clés : Master SAR, autre qu’ATIAM

Description

Offre de stage : 2016-RD-STG-009

Evolution du séquenceur de tâche pour les produits à base de microcontrôleur.

Contexte


CIELE Ingénierie est une entreprise spécialisée dans le développement de solutions embarquées électroniques et logicielles. Les solutions développées par CIELE sont aujourd’hui intégrées dans les domaines d’expertises dits critiques tels l’avionique, l’automobile, le ferroviaire et la défense.

CIELE développe aujourd’hui des produits à base de microcontrôleurs Microchip PIC18, PIC24, PIC32 dans le cadre de la réalisation de projets.

Les produits déjà développés utilisent un séquenceur de tâches permettant d’assurer les fonctionnalités de base, tout en assurant une empreinte mémoire réduite. Le séquenceur de tâche a évolué au sein de chaque produit afin de répondre aux spécificités de ceux-ci.

CIELE souhaite mettre à jour le séquenceur de tâche afin d’améliorer et de simplifier son utilisation au sein des futurs projets.

En fonction des recherches effectuées, une solution du commerce pourra également être envisagée.

Objectifs et travail à réaliser


- Identifier les différentes versions de séquenceurs CIELE, et les fonctionnalités de chacun (slot configurable, définition de tâche de fond...)

- Proposer des évolutions du séquenceur (ajout de fonctionnalité de préemption notamment)

- Identifier les solutions du commerce permettant de répondre aux fonctionnalités (Ex : FreeRtos, DSPnano RTOS ...), et effectuer un tableau comparatif (critères à définir).

- Proposer un outil de configuration/génération du nouveau séquenceur

Prérequis et apports du stage


Ce stage contient une partie importante de recherche et de synthèses de solutions internes/externes. Une bonne compréhension des mécanismes de gestion des tâches est nécessaire.

Ce stage permettra de consolider les connaissances dans le domaine des microcontrôleurs, et d’avoir une vision globale des différentes solutions de gestion des tâches sur ce type de cibles.

Profil


Stage ingénieur de niveau bac + 5, spécialisation systèmes logiciels embarqués

Connaissances souhaitées :
- Architecture microcontrôleur
- OS type eCos, FreeRTOS, ...
- Programmation C, assembleur
- Développement sur plateforme de type NetBeans

Informations administratives


Responsables du stage :
- V. Rogeon (vincent.rogeon@ciele.fr)
- C. Palarino (cedric.palarino@ciele.fr)

Encadrants du stage :
- V. Rogeon (vincent.rogeon@ciele@ciele.fr)
- G. Labrouche (gregory.labrouche@ciele.fr)

Lieu du stage : bureau d’étude CIELE Ingénierie - Créteil Europarc - Métro L8 Créteil Pointe du Lac

Rémunération : 900 € 1100 € selon profil

Durée : six mois


89. Amélioration et extension du support de l’architecture SoC FPGAau sein de la suite d’outils ADES


Site : http://www.ciele.fr/m-117-2016-RD-S...
Lieu : bureau d’étude CIELE Ingénierie – Créteil Europarc – Métro L8 Créteil Pointe du Lac
Encadrant : — G. Lasnier (gilles[dot]lasnier[]at]ciele[dot]fr) — C. Palarino (cedric.palarino@ciele.fr)
Dates :01/03/2017
Rémunération :900 - 1100 €
Mots-clés : Master SAR, autre qu’ATIAM

Description

Offre de stage : 2016-RD-STG-008

Amélioration et extension du support de l’architecture SoC FPGAau sein de la suite d’outils ADES

Contexte


CIELE Ingénierie est une entreprise spécialisée dans le développement de solutions embarquées électroniques et logicielles. Les solutions développées par CIELE sont aujourd’hui intégrées dans les domaines d’expertises dits critiques tels l’avionique, l’automobile, le ferroviaire et la défense.

CIELE développe aujourd’hui des solutions basées sur une nouvelle architecture matérielle dénommée SoC/FPGA. Le SoC/FPGA intègre au sein d’une unique puce un processeur physique ASIC (e.g. ARM/Cortex-A9 double-cœur) et un FPGA. Cette architecture permet de combiner les avantages de l’ASIC (fréquence élevée, utilisation d’un OS embarqué et des applicatifs haut-niveau, IHM, etc.) à ceux du FPGA (accélération matérielle, acquisition et traitement de larges volumes de données à haut débit, etc.). Si les bénéfices sont conséquents, l’intégration de cette architecture est complexe et nécessite la modification du processus de développement traditionnel des systèmes embarqués basé sur ces technologies.

L’initiative R&D de CIELE est de proposer des outils permettant de concevoir, de valider et d’accélérer le déploiement des briques matérielles et logicielles constituants le système embarqué. Ainsi, le CI-lex Builder 2 est une première solution qui simplifie le déploiement et la reconfiguration des briques matérielles du FPGA lors de la phase de prototypage.

Aujourd’hui, CIELE souhaite enrichir cette solution et a initié le développement de la suite d’outils ADES (Automatic Deployment of Embedded Solutions) visant à simplifier la conception, la validation et le déploiement des briques matérielles (IPs, DSPs..) et des briques logicielles (OS embarqué, drivers, applicatifs) selon un nouveau processus de développement adapté au SoC.

Objectifs et travail à réaliser


La suite d’outils ADES fournit des fonctionnalités adressant aussi bien le développement de briques logicielles applicatives que celui de briques matérielles. Ces fonctionnalités peuvent être invoquées à différentes phases du processus de développement.

L’une des fonctionnalités de l’outil doit permettre la production automatisée d’un modèle dit "matériel” qui sera utilisé́ par un outil de synthèse tel Xilinx/Vivado ou Altera/Quartus pour synthétiser l’image du SoC FPGA. ADES fournit un framework permettant de modéliser les composants matériels et logiciels. Ce modèle ADES devra servir de point d’entrée au générateur de modèle "matériel".

Les objectifs de ce stage sont :
- Contribuer et enrichir le framework de modélisation ADES existant o Améliorer et compléter la modélisation du composant matériel SoC FPGA o Modéliser les composants matériels usuels d’une carte électronique de CIELE
- Implanter les fonctionnalités manquantes pour la génération du modèle (i.e. projet) pour les outils de synthèse industriels.
- Les actions de génération mais aussi celle de synthétisation du modèle "matériel” et de déploiement de l’image synthétisée du SoC FPGA devront être enrichies ou implantées si manquantes.

Pour cela, il sera nécessaire d’analyser l’architecture de la suite d’outils et de prendre du recul par rapport aux choix technologiques effectués. On cherchera en particulier à capitaliser sur les briques logicielles existantes, sur les outils de transformation de modèles intégrées mais aussi à satisfaire le caractère générique de la fonctionnalité́.

La validation s’effectuera sur un projet industriel de CIELE Ingénierie.

Prérequis et apports du stage


Le stage présentant une partie pratique assez importante, il est nécessaire d’avoir une expérience raisonnable de la programmation. Il permettra d’acquérir une solide expérience dans la modélisation de systèmes et les principes de transformation de modèles et de génération de code. Il sera l’occasion de se familiariser avec des techniques de conception déjà̀ éprouvées et appelées à se développer, tant au niveau de la recherche que de l’industrie.

Ces travaux seront intégrés à la suite d’outils ADES. En fonction des résultats, ce stage peut déboucher sur une embauche ou une thèse CIFRE.

Profil


Stage ingénieur de niveau bac + 5, spécialisation systèmes logiciels embarqués et/ou FPGA

Connaissances souhaitées : — Architecture microcontrôleur, FPGA — Outils de synthèse Xilinx/Vivado, Altera/Quartus ou autre... — Programmation C, VHDL, TCL — Développement sur plateforme Eclipse (Java, EMF...)

Informations administratives


Responsables du stage : — G. Lasnier (gilles[dot]lasnier[]at]ciele[dot]fr) — C. Palarino (cedric.palarino@ciele.fr)

Encadrants du stage : — H. Haouaneb (hayder.haouaneb@ciele.fr) — G. Lasnier (gilles.lasnier@ciele.fr)

Lieu du stage : bureau d’étude CIELE Ingénierie – Créteil Europarc – Métro L8 Créteil Pointe du Lac

Rémunération : 900 – 1100 € selon profil

Durée : six mois


90. Model-based scenario testing


Site : Equipe ALSOC
Lieu : Laboratoire d'informatique de Paris 6, équipe ALSOC
Encadrant : Cécile Braunstein cecile.braunstein@lip6.fr
Dates :6 mois entre le 15/02/2017 et le 31/08/2017
Rémunération :Indemnités de stage fixées par décret (environ 600 euros/mois)
Mots-clés : Master SAR, autre qu’ATIAM

Description

* Description

La plupart des logiciels que l’on utilise tous les jours sont écrits en langage bas-niveau C/C++, et certaines applications ont mêmes des parties en assembleur. Ces langages permettent de créer des programmes très efficaces et performants mais restent très vulnérables à des attaques de type injection de code, corruption de code, fuite d’information, etc ... En effet, ceux-ci exploitent des bugs de programmation le plus souvent liés à la (mauvaise) gestion de la mémoire [1]. Par ailleurs, les applications s’exécutant sur de petits systèmes embarqués peuvent aussi être soumis à des attaques physiques qui permettent de récupérer des informations, d’accéder à des services sans y être autorisé, prendre le contrôle du système sans même exploiter de vulnérabilités logicielles.

L’ajout de protections logicielles permet de se prémunir contre ses attaques ou les rendre trop difficiles à réaliser. Toutefois, il faut pouvoir cibler les parties de code à sécuriser et garantir que l’application est robuste. Sécuriser une application vise à protéger sa fonctionnalité ou les données sensibles manipulées. Elle dépend donc de l’application et vérifier qu’une application est sécurisée nécessite de connaitre la propriété de sécurité que l’on souhaite garantir.

L’équipe ALSOC étudient depuis plusieurs années les effets d’attaques sur des codes assembleurs et s’appuient sur les méthodes formelles pour vérifier des contre-mesures, évaluer la robustesse de code contre des attaques physiques. De plus, l’équipe dispose d’une plateforme de vérification au niveau assembleur RobustA [2].

Le Model-based security testing [3], c’est à dire la génération de test pour des propriétés de sécurité, émerge comme une nouvelle approche pour améliorer les campagnes de tests des systèmes sécurisés ou des mécanismes de protection.

L’objectif du stage est de concevoir et développer une méthode de génération automatique de scénarios d’attaque à partir des modèles d’attaques et de vulnérabilités en se concentrant dans un premier temps sur la génération de test de scénarios connus.

* Déroulement du stage envisagé

La première partie du stage consistera à faire une étude bibliographique sur les techniques de model-based testing en général et orienté sécurité pour les tests bas-niveau et les tests d’intégrations logiciel/matériel.

La seconde partie du stage consiste à construire un modèle de test pour :

- un exemple jouet : le code pin - un exemple un peu plus conséquent : une fonctionnalité du code de FreeRTOS

Le modèle de test contient le code, mais aussi une modélisation de la classe d’attaque que l’on souhaite considérer et qui nous permettra de guider la génération automatique de scénarios d’attaque.

Les étapes suivantes pour chaque modèle consisteront à

- générer des à l’aide de l’outil RT-tester (de l’université de Brême) ; - Analyser les tests trouvés pour affiner les critères de sélection utilisés lors de la génération. Cela passera par la définition d’une métrique pour quantifier la qualité des tests générés.

* Pre-requis

Connaissance de la programmation C/C++/assembleur, Modélisation haut-niveau type SysML, Connaissance en sécurité et des notions d’attaque bienvenues.

Bibliographie

[1] Laszlo Szekeres, Mathias Payer, Lenx Tao Wei, and R. Sekar. Eternal war in memory. IEEE Security & Privacy, 12(3):45—53, 2014.

[2] Lucien Goubet, Karine Heydemann, Emmanuelle Encrenaz, and Ronald De Keulenaer. Efficient design and evaluation of countermeasures against fault attacks using formal verification. In Naofumi Homma and Marcel Medwed, editors, Smart Card Research and Advanced Applications, volume 9514, pages 177—192. Springer International Publishing, 2015.

[3] Michael Felderer, Philipp Zech, Ruth Breu, Matthias Büchler, and Alexander Pretschner. Model-based security testing : a taxonomy and systematic classification : MODEL-BASED SECURITY TESTING. Software Testing, Verification and Reliability, 26(2):119—148, 2016.


91. Stage - Synchronisation d’images et de signaux de contrôle


Site : Site du pôle Smile ECS (Embedded and Connected Systems)
Lieu : Société SMILE 20 rue des Jardins 92600 ASNIERES SUR SEINE
Encadrant : Mr Christophe BRUNSCHWEILER Directeur de Business Unit 01 41 40 29 26 06 29 27 36 53
Dates :01/03/2017 au 31/08/2017
Rémunération :1300€ brut mensuel
Mots-clés : Master SAR, autre qu’ATIAM

Description

La Business Unit Smile ECS (embedded & Connected systems) est un centre d’excellence entièrement dédié aux systèmes embarqués et objets connectés.

Notre vocation est de créer un lien privilégié entre le monde de l’Open Source et les projets les plus exigeants des grands noms de l’industrie et des PME innovantes. Smile ECS s’impose comme le pôle de référence des métiers de l’embarqué en environnement Open Source.

Contexte :

L’acquisition vidéo sous Linux utilise une couche appelée V4L2 (Vidéo for Linux 2). La carte Raspberry est équipée d’un port CSI permettant de brancher une caméra et de broches électriques pour émettre et recevoir des signaux. Le stage consiste à contrôler, dans les couches basses des pilotes vidéo, la synchronisation entre la captation d’images et l’émission de signaux. Cette faculté permettra d’imaginer des applications novatrices (confidentialité des images, projections invisibles dans la vidéo captée, etc.)

Missions :

On se propose de contrôler la captation d’images de façon à synchroniser le temps d’intégration (accumulation de charge électrique dans les pixels de la caméra) avec l’émission de signaux sur les broches électriques de la carte Raspberry Pi.

- Étude de la couche V4L2 - Conception des algorithmes de synchronisation - Développement du driver embarqué sur la cible - Programmation en C et Python avec la librairie GStreamer (moyens de test)

Technologies utilisées :

Driver V4L2, GStreamer, caméra module Raspberry MIPI-CSI2, Python, C.

Bibliographie

Open Source pour l’IoT - Par Pierre Ficheux, Directeur Technique (2015) - http://www.smile.fr/Ressources/Livr...

Linux pour l’embarqué - Par Pierre Ficheux, Directeur Technique (2015) - http://www.smile.fr/Ressources/Livr...


92. IHM PERMETTANT D’INTERAGIR AVEC UN ÉCRAN PROJETÉ SANS CLAVIER NI SOURIS


Site : ANEO
Lieu : 122 Avenue du Général Leclerc, 92100 Boulogne-Billancourt
Encadrant : Wilfried KIRSCHENMANN Damien DUBUC
Dates :15/02/2017 au 31/08/2017
Rémunération :1200€/mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Contexte et objectif pour ANEO ANEO a emménagé dans son nouveau siège en juin 2016. A cette occasion, nous avons digitalisé un certain nombre de nos cérémoniaux internes. Le cérémonial « Business Morning » (BM) se déroule le vendredi matin. Il est ouvert à tous et est l’occasion de présenter l’avancement de tous nos sujets de ventes en cours. Avant le déménagement, le support de ce cérémonial était un kanban papier dans notre grande salle de réunion. Depuis le déménagement, nous avons digitalisé le kanban (sur Trello). Si nous avons gagné l’ubiquité de notre outil de suivi, nous avons par contre perdu l’interaction physique avec ce dernier. De ce fait, il est aujourd’hui nécessaire qu’un secrétaire de séance déplace les fiches sur l’outil pendant que son propriétaire présente le sujets et les évolutions attenantes. L’objectif de ce stage est de mettre au point une IHM permettant au propriétaire d’interagir directement avec notre outil afin de rendre le système plus fluide. Sujet L’objet du stage consistera à mettre au point un système permettant à une personne d’interagir avec un ordinateur dont l’écran est projeté, le tout sans clavier ni souris. La première étape consistera à utiliser un dispositif Kinect 2 placé près du vidéo projecteur pour identifier le présentateur et ses mains puis de définir des méthodes d’interactions permettant de :
- Cliquer
- Faire du drag & drop
- Sélectionner, copier et coller un texte Selon l’avancement, le sujet pourra être étendu à la sélection de textes sans perte de focus (par reconnaissance d’image) ainsi qu’à la mise en place d’un « enregistreur de mouvements » permettant de généraliser l’ajout de nouveaux comportement de l’IHM. Compétences requises Etre opérationnel en C++ ou en C# Avoir suivi une spécialisation en traitement d’image Avoir une sensibilité aux problématiques liées à l’expérience utilisateur.


93. Descripteurs d’images spécialisés pour un moteur de classification d’images interactif


Site : ANEO
Lieu : 122 Avenue du Général Leclerc, 92100 Boulogne-Billancourt
Encadrant : Wilfried KIRSCHENMANN Damien DUBUC
Dates :15/02/2017 au 31/08/2017
Rémunération :1200€/mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Contexte et objectifs pour ANEO Dans différents métiers (santé et biologie, nucléaire, etc.), la classification d’images reste une opération manuelle. ANEO a mis au point une plateforme permettant d’accompagner l’automatisation de la reconnaissance. Cet outil a pour principe de faire une recherche des images les plus proches de de l’image à classer parmi toutes les images déjà en base. En fonction de la liste des images plus proches et du nombre d’images en base, une préconisation est proposée associée avec un indice de confiance. Au fur et à mesure que l’indice de confiance augmente, la plateforme permet progressivement d’automatiser le classement des images les plus fréquentes. Aujourd’hui, la recherche des images les plus proches s’appuie sur des descripteurs génériques. Nous souhaitons améliorer les performances des recommandations et donc l’indice de confiance en utilisant un descripteur spécialisé au problème en cours. Sujet L’objet du stage consistera à expérimenter différentes approches pour mettre au point une méthodologie de construction de descripteurs spécialisés au problème et à l’implémenter dans la plateforme. La première approche que nous souhaitons expérimenter consiste à s’appuyer sur les approches de type Deep Learning et à utiliser des autoencodeurs. Compétences requises
- Etre opérationnel en Python.
- Avoir des connaissances en apprentissage automatique.
- Avoir utilisé un framework de Deep Learning comme CAFFE sera un plus


94. ETUDE COMPARATIVE DES PRINCIPAUX PARADIGMES DE CALCUL PARALLELE


Site : ANEO
Lieu : 122 Avenue du Général Leclerc, 92100 Boulogne-Billancourt - Métro Pont de Sèvres
Encadrant : Salli MOUSTAFA Séthy Akpémado MONTAN
Dates :15/02/2017 au 31/08/2017
Rémunération :1200€/mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

ANEO est un cabinet de conseil libéré, une organisation à plat, basée sur l’intelligence collective et l’épanouissement de nos collaborateurs qui génère créativité et innovation.

Contexte et objectif pour ANEO Avec l’évolution rapide de la puissance des ordinateurs (calculateurs modernes hiérarchiques), les entreprises disposent de ressources de calcul permettant d’analyser des workloads de tailles plus importantes. Pour ce faire, il alors est indispensable d’avoir une maîtrise approfondie des technologies de modélisation et de simulation numérique afin d’exploiter pleinement la puissance de calcul disponible. A travers ce stage, nous souhaitons mener une étude comparative des principaux paradigmes de calcul parallèle avec ou sans échange. Ainsi, après un état un état de l’art des solutions logicielles, nous analyserons les différents modèles de programmation parallèle classiques et émergents. En sus de l’aspect technique, nous agrémenterons cette étude d’une analyse financière et structurelle. A terme, nous souhaitons faire une publication sur le secteur HPC - Big Data et son avenir. Ce stage constitue un enjeu majeur pour les Cercles HPC et Big Data. Il permettra au cabinet de confirmer son expertise sur ces sujets, de répondre aux demandes récurrentes de ses principaux clients et de favoriser les partenariats dans le domaine. Pour le stagiaire, ce sera l’occasion de monter en compétence rapidement sur des sujets techniques modernes. Compétences requises
- Étudiant H/F Niveau bac +5, école d’ingénieur ou master
- programmation parallèle
- calcul haute performance (HPC)
- C/C++, Python
- Informatique scientifique
- Big data


95. Musical style transfer through stationnarity learning and multiverse loss networks


Site : Equipe PDS - RepMus
Lieu : IRCAM
Encadrant : Patrick Susini, Philippe Esling
Dates :du 15/02/2017 au 15/08/2017
Rémunération :Gratification en vigueur à l’IRCAM
Mots-clés : Parcours ATIAM : Informatique musicale

Description

The recent advent in deep learning [bengio2009learning] has provided astonishing results, by strongly outperforming state-of-art models in information retrieval tasks [bengio2007greedy]. Various types of architectures have been developed such as Restricted Boltzmann Machines (RBM) [hinton2006fast] or Auto-Encoders (AE) [vincent2010stacked], and the current best results for music-related problems are hold by Convolutional Neural Networks (CNN) [lecun1998gradient] for signal classification, Recurrent NN (RNN) [sutskever2007learning] for symbolic music prediction and Variational AE (VAE) [kingma2014auto] for generative aspects. Most recently, this research field has widely turned its attention towards generative processes. Adressing the question of creative intelligence could give rise to a whole new category of generic learning systems. Indeed, generative networks can easily be turned into discriminative transforms (whereas the reciprocal is not necessarily true). Hence, multiple generative models have been proposed such as Generative Adversarial Networks (GAN) [goodfellow2012gan] or VAEs [kingma2014auto]. One of the most successful creative application of deep neural networks has been found in the context of CNN for performing style transfer [gatys2015neural] and texture generation [gatys2015texture] by relying on the activation matrix of convolutional layers. Although these very interesting results are continuously discovered for image processing, the generation of auditory and musical data is still a long way from providing satisfactory results. Indeed, musical information is conveyed by multiple dimensions that are entangled in the Fourier transform of audio signals. This complex set of auditory qualities which allows to distinguish two sounds produced at the same pitch and intensity is called timbre [mcadams2013timbre], one of the most mysterious and dazzling aspect of music. Timbre has long been shown to be a multidimensional property in terms of perception. Therefore, trying to aim for satisfactory generative models in music stresses the importance of understanding the specificities related to audio processing. First, both dimensions in the spectrogram do not carry the same information. Hence, oppositely to images, although the time dimension provides a form of temporal stationarity, the same does not hold for the frequency dimension. Second, the notion of musical style is not solely bound by a co-activation of recurrent features. Understanding (and extracting) the style of a musical piece requires to analyse its instrumentation, harmonic content and also timbral information. Hence, aiming for musical generation also raises intriguing questions.

  1. Multiple scales of time. Music brings together micro-temporal relations (sound identity of instruments) with several macro-temporal scales (from symbolic sequences to structures of musical pieces). Hence, it requires to tackle the analysis of time series at variable scales (termed here time granularities).
  2. Multimodal sources of information. Music lies at the crossroads between the spectral (instrumental properties), symbolic (musical writing) and perceptual (timbre perception) worlds. Therefore, it requires a joint analysis of multimodal information over objects that are semantically similar.
  3. Modeling musical style. The understanding of a musical piece requires to separate its instrumentation, harmonic content and timbral information. Each of these information can be defined as a multidimensional source of information.

In order to tackle these questions, this internship will target the analysis of musical style through deep learning. A first research axis will be to evaluate other forms of representations such as Spectro-Temporal Receptive Field (STRF) [fritz2003rapid] or cochleograms, in order to obtain matrix inputs with a property of stationnarity in both dimensions. Another possibility would be to rely on a Self-Organizing Map (SOM) [kohonen1990self], whose objective would be to find an intermediate representation that could maximize the stationarity of the input distribution. Then, in order to evaluate the success of the content analysis aspects of these networks, we will target secular tasks in MIR [humphrey2013feature], such as cover identification which implicitly requires to separate the content from the style of a musical piece. Then, in order to analyze the various aspects of musical style, we will rely on the novel concept of multiverse networks [littwin2015multiverse]. These will allow to define multiple objectives for musical style and provide a way to analyze the multiobjective characteristics of music. In the end of the internship, style transfer will be evaluated by trying to apply the style of a musical piece to the content of another piece. Finally, as research in deep learning seems to be mostly suffering from a lack of attention towards temporal concepts (lack of memory in neural networks [hochreiter1997long]). Hence, as we believe that an interesting meeting point is required between time series data mining and deep learning, new algorithms should be developed to carefully adapt deep learning methods to fit the intrinsic caracteristics of time series, while taking into account multi-objective similarity [esling2013multiobjective, esling2013thesis]. As time series can be analysed at variable scales, the concept of deep temporal granularity learning could be explored based on models of Long Short-Term Memory (LSTM) [hochreiter1997long] and grammar cells [michalski2014modeling] augmented by temporal attention. This internship project will have two direct musical realizations through a piece composed by Daniele Ghisi which is scheduled to be played in September and another musical application that will be defined with a composer from IRCAM’s cursus 1.

Bibliographie

Bengio, Y. Lamblin, P. Popovici, D. et al. (2007) Greedy layer-wise training of deep networks. Advances in neural information processing systems, 19:153.

Bengio, Y. (2009) Learning deep architectures for ai. Foundations and trends in Machine Learning, 2 (1).

Bergomi, M. (2015) Dynamical and topological tools for music analysis. PhD thesis, UPMC, Paris 6,

Crestel, L. & Esling, P. (2015) Deep symbolic learning of multiple temporal granularities for musical orchestration. Masters thesis, Universite Pierre et Marie Curie, Paris 6.

Crestel, L. & Esling P. (2016) Live orchestral piano, a system for real-time orchestral music generation. In International Conference on Computational Creativity, Submitted.

Esling, P. & Agon, C. (2012). Time-series data mining. ACM Computing Surveys, 45(1), art. 12.

Esling, P. (2012a). ATO-MS : Abstract Temporal Orchestration – Modular Structure. Software Documentation. Paris : Ircam-Centre Pompidou.

Fritz, J., Shamma, S., Elhilali, M., & Klein, D. (2003). Rapid task-related plasticity of spectrotemporal receptive fields in primary auditory cortex. Nature neuroscience, 6(11), 1216-1223.

Gatys, L., Ecker, A. S., & Bethge, M. (2015). Texture synthesis using convolutional neural networks. In Advances in Neural Information Processing Systems (pp. 262-270).

Gatys, L. A., Ecker, A. S., & Bethge, M. (2015). A neural algorithm of artistic style. arXiv preprint arXiv:1508.06576.

Gatys, L. A., Ecker, A. S., & Bethge, M. (2016). Image style transfer using convolutional neural networks. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 2414-2423).

Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2014). Generative adversarial nets. In Advances in Neural Information Processing Systems (pp. 2672-2680).

Hinton, G. Osindero, S. & Teh, YW. (2006) A fast learning algorithm for deep belief nets. Neural computation, 18(7):1527–1554.

Humphrey, E. J., Bello, J. P., & LeCun, Y. (2013). Feature learning and deep architectures : new directions for music informatics. Journal of Intelligent Information Systems, 41(3), 461-481.

Kingma, D.P. and Welling M. Auto-encoding variational bayes. International Conference on Representation Learning, 2014.

Kohonen, T. (1990). The self-organizing map. Proceedings of the IEEE, 78(9), 1464-1480.

Littwin, E., & Wolf, L. (2015). The Multiverse Loss for Robust Transfer Learning. arXiv preprint arXiv:1511.09033.

Littwin, E., & Wolf, L. Complexity of Multiverse Networks and their Multilayer Generalization.

McAdams. S. Timbre as a structuring force in music. In Proceedings of Meetings on Acoustics, volume 19, page 035050. Acoustical Society of America, 2013.

Michalski, V. Memisevic, R. and Konda, K. (2014). Modeling deep temporal dependencies with recurrent grammar cells. In Advances in neural information processing systems, pages 1925–1933.

Mikolov, T. Yih, WT. & Zweig, G. (2013) Linguistic regularities in continuous space word representations. In HLT-NAACL, pages 746–751.

Sutskever, I. and Hinton G.E. Learning multilevel distributed representations for high-dimensional sequences. In International Conference on Artificial Intelligence and Statistics, pages 548–555, 2007.

Vincent, P. Larochelle, H. Lajoie, I. Bengio, Y. and Manzagol P.A. (2010) Stacked denoising autoencoders : Learning useful representations in a deep network with a local denoising criterion. The Journal of Machine Learning Research, 11:3371–3408.


96. Analyse acoustique de la polyphonie


Site : IREMUS
Lieu : IREMUS, 2 rue Louvois 72002 PARIS Centre Clignancourt
Encadrant : Jean-Marc Chouvel
Dates :du 01/02/2017 au 31/06/2017
Rémunération :normes CNRS
Mots-clés : Parcours ATIAM : Acoustique

Description

Le stage consistera à explorer de nouveaux outils conceptuels pour l’analyse harmonique issus en particulier des concepts de concordance harmonique et de transformée différentielle. Outre la consolidation de l’approche théorique, l’objectif du stage est de proposer un outil logiciel mettant ces concepts à la disposition des musicologues et des compositeurs pour un usage concret à partir de fichiers MIDI ou de fichiers sonores.

Bibliographie

Georges Bonnet, "Considérations sur la représentation et l’analyse harmonique des signaux déterministes ou aléatoire" in Théories et techniques de la détection en acoustique sous-marine et traitement du signal, Masson & Cie, Paris, colloque de Nice 17-20 Avril 1967.

LAI (D.C.) : Signal space concepts and Dirac’s notation, John Hopkins Univ. Rept. N° AFCRC-TN-60-167, 1960, et bien-sûr de DIRAC (P.A.M.) : Quantum Mechanics, Clarendon, Oxford, 1958.

Mattia Giuseppe Bergomi. Dynamical and topological tools for (modern) music analysis. Gen- eral Topology [math.GN]. Universit-e Pierre et Marie Curie - Paris VI, 2015. English. .

Jean-Marc Chouvel, Esquisses pour une pensée musicale : les métamorphoses d’Orphée, l’Harmattan, Paris, 1998.

Jean-Marc CHOUVEL, « Analyser l’harmonie – aux frontières de la tonalité », Musurgia, Eska, Paris, 2011 – VolumeXVIII – n°1-2.

Jean-Marc CHOUVEL, « Au-delà du système tonal », in Regards sur la Tonalité Henri GONNARD (dir.), Delatour France, Sampzon, 2013, p. 79-103.

Jean-Marc Chouvel, La théorie de Rameau et sa postérité (publication en cours)

Jean-Marc Chouvel (Université de Reims - CRLM - IDEAT UMR8153) Jean Bresson (Ircam-CNRS UMR 9912) Carlos Agon (Ircam-CNRS UMR 9912) L’analyse musicale différentielle : principes, représentation et application à l’analyse de l’interprétation EMS Network http://www.ems-network.org/spip.php...


97. EEG markers of emotional voice processing in others and the self


Site : CREAM
Lieu : IRCAM (PDS/CREAM)
Encadrant : JJ AUCOUTURIER (CNRS)
Dates :01/03/2017 au 31/07/2017
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Affective stimuli are processed differentially from neutral stimuli and the detection of emotional information in speech is important in social interactions. However, in some cases it may be more relevant to accurately extract affective information in a voice than in others, for example when it’s your best friend rather than a neighbor that you don’t like. Additionally, it is not quite clear whether people process the affective acoustic information in their own voice in the same manner as they would process this information in someone else’s voice (for a study on semantic emotion see Pinheiro et al., 2016).

The aim of this project is to investigate how familiarity, social relevance and self-referential processes influence the neural processes involved in emotional speech perception. In our group we have developed a software tool to manipulate specific emotional voice cues (Rachman et al., submitted) and other tools are available within IRCAM to control speech parameters that may be useful to answer the research questions in this project. Additionally, behavioral and EEG data will be collected to study the processes involved in emotional voice perception.

The student will help with the experimental design and is expected to collect and analyze behavioral and EEG data under supervision of a PhD student. For the programming of experiments, Python will be used and the analysis of EEG data will be done in MATLAB. Although there is some time to be further trained in the use of MATLAB and Python, a basic knowledge of either is highly favorable.

Bibliographie

Pinheiro, A. P., Rezaii, N., Nestor, P. G., Rauber, A., Spencer, K. M., & Niznikiewicz, M. (2016). Did you or I say pretty, rude or brief ? An ERP study of the effects of speaker’s identity on emotional word processing. Brain and Language, 153–154, 38–49. http://doi.org/10.1016/j.bandl.2015...

Rachman, L., Liuni, M., Arias, P., Lind, A., Johansson, P., Hall, L., Richardson, D., Watanabe, K., Dubal, S. and Aucouturier, J.J. (2016) DAVID : An open-source platform for real-time emotional speech transformation (with 25 applications in the behavioral sciences). doi : 10.1101/038133


98. Multisymplectic lie group integrators for a geometrically exact beam. Testing HPC numerical methods compared to completely integrable systems.


Site : SEAM
Lieu : IRCAM, Eq. SEAM 1place I. Stravinsky 75005 Paris
Encadrant : Joël Bensoam
Dates :01/02/2017 au 31/07/2017
Rémunération :3,60/heure
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale

Description

Context

For complex applications in scientific areas such as computational chemistry, materials science, weather forecasting or study of transfer phenomena in large domain, physics-inspired models use scales of time and space that are much smaller than those of the desired outputs. To quote only an example : the determination of macroscopic properties from molecular dynamics entails a time scale within a range of few picoseconds. Such complex physical systems are modelled using partial derivative equations. Since analytic solutions are generally not affordable, these equations are solved by numerical algorithms. Exascale capability is expected to offer new possibilities for these computations and simulations making reachable new applications that require more and more power machine.

But, pursuing the exascale level, the very nature of the problem makes generally existing computational techniques irrelevant. The physical systems they simulate evolve generally on curved configuration spaces (manifolds) and thus are intrinsically non-linear. Nonlinear effects will dominate computations as the computing capacity grows, making off-the-shelf numerical methods, unwieldy, onerous and finally pointless. Without deeply tacking into account intrinsic structures (curvature, non Euclidean distances, invariants, symmetries, i.e.), new drawbacks will emerge : errors from small scale details undoubtedly percolate upwards to larger scales and cannot be avoided by simply increasing the numerical precision.

Geometry for quality

Algorithms that respect the inherent geometrical structure of the data or physics involved overcome this problem. Geometric integrators are numerical schemes based on the preservation of the geometrical properties. They guarantee, in the numerical domain, the fundamental physical properties and, then, are more robust than any others. Numerous examples can already be found in a wide range of domains not even in mechanics, robotics but also in Machine Learning, Artificial Intelligence, financial predictions, Stochastic Systems... In all these areas, the mathematical background, inherited from the geometers over the last centuries (Euler, Lagrange, Riemann, Poincaré, Cartan), came to maturity and is more and more available for new applications that deserve to be deployed on HPC systems.

The main objective of the internship is to build a benchmark showing the interest of geometric methods deployed on HPC.

In that context, a special attention to the applications of symplectic geometry is conceived to address the non-linear phenomena in their intrinsic qualities. Furthermore, a new framework is also essential to handle wave problems (encountered in acoustics, fluids dynamics or more generally in field theories, PDE). The generalization of the classical symplectic geometry, called multi-symplectic geometry, has already been partially constructed and is still under development, leading to new numerical methods.

In particular, discrete field theory through the multisymplectic formalism apply to the Reissner’s beam model will be compare to Geometric completely integrable systems in two variables (e.g. harmonic maps or wave maps with values in symmetric space).

Bibliographie

References [1] Joël Bensoam. Differential geometry applied to acoustics : Non linear propagation in reissner beams. In Geometric Science of Information, GSI, volume 8085 of Lecture Notes in Computer Science, pages 641–649, 2013.

[2] F. Gay-Balmaz Demoures, F. and T. S. Ratiu. Multisymplectic variational integrators and space/time symplecticity. Analysis and Applications, accepted, 2014.

[3] François Gay-Balmaz, M. Kobilarov F. Demoures, and T. S. Ratiu. Multisymplectic lie group variational integrators for a geometrically exact beam in R3. Commun. Nonlin. Sci. Numer. Simulat., 19(10):3492–3512, 2014.

[4] Frédéric Hélein. Hamiltonian formalisms for multidimensional calculus of variations and perturbation theory. Contemporary Mathematics, 350, 2004.

[5]Multisymplectic formulation of Yang-Mills equations and Ehresmann connections, to appear in Advances in Theoretical and Mathematical Physics, arXiv:1406.3641.

[6]F. Gay-Balmaz, D. D. Holm, V. Putkaradze, T. S. Ratiu. Exact geometric theory of dendronized polymer dynamics. May 15, 2010, nlin.CD, math-ph, math.MP

[7]David C. P. Ellis, F. Gay-Balmaz, Darryl D. Holm, Tudor S. Ratiu. Lagrange-Poincare field equations. Oct 05, 2009, nlin.CD, math-ph, math.MP


99. INGENIEUR ETUDES ET DEVELOPPEMENT


Site : Trac-INGENIEUR ETUDES ET DEVELOPPEMENT
Lieu : 7 RUE FRÉDÉRIC CLAVEL 92287 SURESNES
Encadrant : MR SERGE GOMBERT
Dates :06/02/2017 au 04/08/2017
Rémunération :1400 BRUTS
Mots-clés : Master SAR, autre qu’ATIAM

Description

Dans ce stage, vous prendrez part à la construction de grands projets de transformation, à la fois métier et technique autour des nouvelles technologies (J2EE, .Net.Php).

Les objectifs du stagiaire couvrent tout le cycle de développement d’un projet, à savoir :

  • Industrialiser et d’enrichir la base de tests de non régression du moteur de calcul de tarification d’un des principaux loueurs de voiture en Europe.
  • Participer aux spécifications et aux développements des évolutions de ce moteur de calcul de tarification
  • Participer au support utilisateurs et résolution des incidents de ce moteur de calcul de tarification

100. Projets de développements autour de l’ECM


Site : Projets de développements autour de l’ECM
Lieu : 191 avenue Charles de Gaulle 92200 Neuilly Sur Seine
Encadrant : Stéphane FREMY
Dates :13/02/2017 au 11/08/2017
Rémunération :1200
Mots-clés : Master SAR, autre qu’ATIAM

Description

Au sein d’Amexio, vous travaillerez en collaboration avec les responsables de l’offre IBM ECM sur des sujets concernant la mise en oeuvre de nouvelles interfaces utilisateurs ou de facilités d’administration pour les produits IBM ECM. Ces sujets seront présentés sous forme de projets à cycle court afin de vous permettre d’aborder les différentes facettes de l’ECM. En préambule à la réalisation des projets, vous vous formerez aux différents concepts de l’ECM et aux produits IBM.

Les projets suivants sont actuellement identifiés :

IBM Content Navigator :

  • Bonnes pratiques d’extensions de l’interface utilisateur
  • Identification et préparation d’une configuration optimale pour le développement d’extensions pour ICN (WebApp et mobile)
  • Optimisation du paramétrage des actions dans ICN
  • Développement de fonctionnalités de plan de classement dynamique paramétrables
  • Industrialisation de fonctions de recherche croisée avec la géolocalisation des objets
  • Adaptation d’une interface de navigation par graphe
  • Optimisation de l’intégration à la suite Office

Business Process Management :

  • Industrialisation de développements réutilisables
  • Définition et réalisation d’une vue Historique des workflows
  • Définition et réalisation d’écrans paramétrables pour la supervision fonctionnelle
  • Mise en oeuvre d’interfaces facilitant la recherche dans un contexte workflow

Administration technique et exploitation des produits IBM ECM

  • Supervision technique dans le prolongement de travaux déjà instanciés dans le cadre d’un précédent stage
  • Monitoring de l’utilisation des licences produits
  • Industrialisation d’outillage d’audit et retro documentation

Ces différents projets nécessitent de la part du stagiaire des capacités d’apprentissage, d’écoute, d’autonomie, de rigueur et de travail en équipe.

Les technologies mises en oeuvre seront :

  • J2EE (basé principalement sur le serveur d’application IBM WebSphere)
  • les environnements de développement type Eclipse
  • les bases de données (Oracle principalement)
  • Javascript et le Framework Dojo
  • les technologies mobile (iOS & Androïd)
  • les produits IBM ECM

101. consultant application


Site : Consultant d’Application S
Lieu : CAPGEMINI TECHNOLOGY SERVICES 5/7 rue Frédéric Clavel 92287 SURESNES CEDEX
Encadrant : Mélanie BOUSSARD
Dates :du 06/02/2017 au 04/08/2017
Rémunération :1400 € brut par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Consultant d’Application en stage chez Capgemini, vous prendrez part à la construction de projets de transformation à la fois métier et technique autour des technologies Java/J2EE/.Net, Angular JS, pour nos clients grands comptes du secteur de l’énergie.

Activité :

  • Conception technique : modélisation, écriture de documents de conception technique détaillée
  • Développement Java/J2EE/.Net ou Angular JS, SQL : au niveau de la couche persistance, de la couche service et de la couche IHM
  • Utilisation de framework tels que JSF, Struts, Spring : Hibernate et les EJB
  • Développement HTML/CSS
  • Application de la méthodologie Agile

Rôle : Concepteur/ Développeur : Vous serez également accompagné de développeurs seniors chargés de faciliter votre montée en compétence sur le contexte technique et les technologies mises en œuvre sur le projet.

Objectifs :

  • Réussir son intégration au sein de l’équipe humainement et techniquement
  • Réaliser des productions logicielles et documentaires de qualité en intégrant les contraintes charges et délais fixés
  • Apprendre la méthodologie appliquée sur les projets Capgemini : cycle de vie projet, méthodes et outils associés à chaque phase, indicateurs…
  • Connaitre les différentes phases ou activités de projet tels le développement, l’intégration fonctionnelle, la création de rapports au sein d’Infocentre. Les basiques des méthodologies mises en œuvre sur nos projets pourront être vécus selon les cas, dans différents projets : projet au forfait chez nos clients ou dans nos centres de développement, projet intégrant une composante « distributed delivery » en nearshore ou offshore…  

102. Concert hall acoustics from the musician’s perspective


Site : http://www.ak.tu-berlin.de/
Lieu : TU Berlin, Audio communication Group
Encadrant : Prof. Dr. Stefan Weinzierl
Dates :du 2017/02/28 au 2017/07/28
Rémunération :-
Mots-clés : Parcours ATIAM : Acoustique

Description

The project will investigate the perception of room acoustical conditions on stage by musicians in different types of ensemble (solo, chamber music). Based on a vocabulary which was elicited from musicians by the Repertory Grid Method (RGT), a questionnaire will be constructed in different languages and provided to diffferent concert venues and organizers. The ratings filled out by the musicians after their performance will be analysed and correlated with stage acoustical parameters measured in the respective halls.

Bibliographie

Schaerer Kalkandjiev, Z., Weinzierl, S. (2015). „The Influence of Room Acous-tics on Solo Music Performance : An Experimental Study”, Psychomusicology : Music, Mind & Brain 25/3, 195-207.

Schaerer Kalkandjiev, Z., Weinzierl, S. (2013). „The Influence of Room Acous-tics on Solo Music Performance : An Empirical Case Study”, Acta Acustica united with Acustica 98, 433–441.

Frank, M. (2016). Erstellung eines Vokabulars zur Beschreibung raumakustischer Bedingungen von Ensembles. Master Thesis, TU Berlin.


103. Développement Mobile, Web, Cross-platform


Site : Trac-Développement Mobile, Web, Cross-platform
Lieu : Locaux AEDMAP, 8 rue de Belloy 75116 Paris
Encadrant : Loic QUERUEL

Description

Liste de projets Android / Web AEDAMP ( premier semestre 2017 ) Nota : Le terme Elaboration ne comprend pas juste le développement, mais bien les phases de définition, développement, test et mise en production

1 ) - Evolution de la l’application Staying-Alive ( App native Android) pour une mise à jour des défibrillateurs en temps réel (sans téléchargement). Elaboration d’une nouvelle interface de saisie plus intuitive. Gestion de la VoIp pour un dialogue en temps réel avec les services de secours.

2) - Elaboration d’un webApp application mobile (ionic 2.0 ou autre) pour gérer l’installation et la maintenance des défibrillateurs. Cette application devra : - fonctionner en online / offline - générer un bon de recette avec signature du client - gérer les QRCode / photos / Agenda / contact

3) - Elaboration d’un serveur web socket en Node.JS afin de dialoguer en temps réel avec les différents BackOffice d’AEDMAP


104. Risk-based Testing


Site : MoVe
Lieu : Laboratoire d'Informatique de Paris 6 (LIP6) Campus Jussieu, équipe MoVe.
Encadrant : Lom M. Hillah, Fabrice Kordon
Dates :du 01/03/2017 au 31/08/2017
Rémunération :Rémunération standard de l’université
Mots-clés : Master SAR, autre qu’ATIAM

Description

CONTEXTE L’équipe MoVe du LIP6 (Université Pierre et Marie Curie) centre ses recherches sur les problématiques liées à la spécification, conception, modélisation, vérification et prototypage de systèmes et applications réparties complexes et large-échelle. Nos approches sont basées sur l’ingénierie des modèles, les méthodes formelles, les lignes de produits logiciels et les processus de développement. Nous travaillons également dans ce contexte sur l’automatisation des tests de services en boîte grise (architectures, API et protocoles).

PROBLEMATIQUE Avec l’accroissement des interconnections de systèmes et d’applications, les systèmes d’information sont en constante évolution et il est de plus en plus difficile de tester toutes les évolutions ou intégrations, en particulier les plus critiques. De plus, les tests pouvant être relativement nombreux, ils peuvent être alors très longs et coûteux à dérouler systématiquement sans discernement. Il est alors nécessaire d’établir un ciblage pertinent et continu ainsi qu’une priorisation des tests les plus critiques à effectuer en cas de déploiement d’un nouveau composant ou application, en cas de mises à jour ou de connection à un nouveau système. Les tests basés sur l’évaluation des risques (Risk-based Testing) permettent d’apporter une première brique de solution à ce problème. L’objectif est de trouver les défauts les plus importants le plus tôt possible, au moindre coût possible. L’idée du risque est basée sur la connaissance de la probabilité de défaillance d’un composant critique et des dommages qu’une défaillance effective provoquerait (e.g. perte financière, temps nécessaire à la réparation, impact sur d’autres composants ou systèmes). Lorsqu’on ne possède aucune connaissance de la probabilité de défaillance (i.e. incertitude), des techniques ad hoc peuvent être appliquées, par exemple en maximisant d’abord le risque, ou en utilisant des techniques d’apprentissage automatique.

TRAVAIL A REALISER L’objectif de ce stage est de proposer un framework permettant à l’analyste système de spécifier tous les paramètres permettant d’identifier les risques, de développer 1 un outil prenant en compte ces paramètres, capable de prioriser la sélection des tests critiques à exécuter, et également capable de réévaluer automatiquement et continuellement les risques à travers le monitoring des composants ou systèmes relevant des paramètres indiqués. Nous souhaitons intégrer cet outil dans un cadre d’interaction avec un générateur de tests dont un premier prototype a été dévelopé. L’objectif est de diriger la génération de tests grâce à l’identification a priori des tests pertinents à générer selon des critères calculés sur la base de l’évaluation des risques pour les composants ou systèmes critiques identifiés.

Une feuille de route type du travail à réaliser serait composée tâches suivantes : — étude de l’état de l’art du risk-based testing ; — identification des concepts et techniques pertinents à reprendre et améliorer ; — spécification des concepts et techniques complémentaires à intégrer ; — spécification fonctionnelle du framework d’analyse ; — développement, expérimentation et évaluation d’un prototype du framework ; — éventuellement intégration avec l’outil de génération de tests.

PROFIL ET COMPETENCES RECHERCHES Des connaissances en Java ou Python, Javascript, Web Services, développement d’application Web, ainsi qu’une aisance de développement dans un IDE tel que Eclipse ou IntelliJ seront appréciées. Les bonnes pratiques de développement logiciel sont également recommandées. Il est également attendu du candidat qu’il possède la capacité d’étudier, assimiler et mettre en oeuvre (éventuellement étendre) les concepts théoriques nécessaires à l’accomplissement du travail demandé (e.g. probabilités, méthodes formelles). L’utilisation d’outils d’apprentissage automatique pourrait également faire partie de ce stage. Le (ou la) candidat(e) devra faire preuve d’autonomie et d’initiative afin de surmonter les difficultés techniques du stage et proposer des solutions simples et robustes, dont la maintenance est relativement simple.

INTERET DU STAGE Ce projet sera en contrepartie l’occasion pour le stagiaire : — d’aquérir de solides compétences en spécification, modélisation, en méthodes formelles, et en tests, en particulier le risk-based testing ; — d’approfondir les bonnes pratiques de programmation et de développement industriel de logiciel, compétences très recherchées. Ce stage pourrait donner lieu à une thèse CIFRE.


105. AUTOMATIC EXTRACTION OF THE SEMANTIC CONTENT OF MUSIC LYRICS


Lieu : TU Berlin
Encadrant : Dr Jochen Steffens
Dates :du 01/03/2016 au 01/08/2016
Mots-clés : Parcours ATIAM : Informatique musicale

Description

This project deals with the question how semantic and emotional content of lyrics in music can be extracted by means of automatic procedures, such as latent semantic analysis (LSA ; e.g. http://lsa.colorado.edu/ [3]) or textual emotion recognition (e.g. http://krcadinac.com/synesketch/ [4].)

In a previous study, 183 musical excerpts with a duration of 30 seconds were evaluated by test participants with regard to their semantic content. This was done using the recently developed General

Music Branding Inventory (GMBI). Aim of the project is to automatically extract the semantic content of those lyric excerpts and to investigate whether the outcomes of the automatic procedures (e.g. LSA) are correlated with the evaluations made by the participants. Additionally, a small experiment will be conducted in which participants rate the semantic and emotional content of written or spoken text samples without music. This allows us to investigate how

song lyrics are perceived without the influence of the music. Furthermore, it helps estimating whether lyrics or music or their interplay are the major source of the overall emotional content of text-based music.

This internship allows you to work closely together with researchers

from the ABC_DJ-project, a cooperative project between seven companies and institutions from five European countries (http://abcdj.eu/ [1]).


106. Algorithms for automata with generic acceptance


Site : Algorithms for automata with generic acceptance
Lieu : LRDE, EPITA
Encadrant : Alexandre Duret-Lutz
Dates :flexible
Rémunération :1000€ bruts
Mots-clés : Master SAR, autre qu’ATIAM

Description

The Spot library (http://spot.lrde.epita.fr/) contains many algorithms for translating LTL formulas into omega-automata, and to simplify these formulas and automata. It also provides support to build an LTL model checker, through algorithms testing whether the language of such an automaton is empty or not.

Omega-automata are used to represent languages over infinite words. These automata can be defined using numerous acceptance conditions such as Büchi, co-Büchi, Rabin, Streett, Parity, etc. Spot actually supports these acceptances condition in a generic way and allow them to be combined as desired.

The goal is to implement several algorithms that transform automata using one acceptance condition into automata using another acceptance condition. Some of these conversions are essential to some decision procedures.

For instance, we currently have an implement of Krishnan’s algorithm for converting a deterministic Rabin automata into an equivalent deterministic Büchi automaton when such an automaton exist. We believe the procedure could be extended to handle deterministic "Generic Rabin" as input. Implementing such a new transformation would give us an efficient way to decide whether some LTL formula is realizable by a deterministic Büchi automaton, because we can already transform LTL into generic Rabin.

Bibliographie

Krishnan et al.’s "Deterministic ω-Automata vis-a-vis Deterministic Büchi Automata" (ISAAC’94)

C. Löding. Methods for the transformation of omega-automata : Complexity and connection to second order logic (Master Thesis 1998)


107. Machine Learning methods for music transformation


Site : Audio Analysis Lab / Sound and Music Computing Group
Lieu : Aalborg University Copenhagen
Encadrant : Hendrik Purwins
Dates :du 27/02/2017 au 18/08/2017
Mots-clés : Parcours ATIAM : Informatique musicale

Description

A major problem for Cochlear Implant (CI) users is that they often cannot enjoy music, mainly due to the very coarse frequency resolution of the cochlear implant. [1,2,3] However CI users can perceive rhythm and astonishingly relearn speech understanding even at an older age. In this project the potential of two different approaches of generative neural networks is investigated as part of a tool that can be used by cochlear implant users to explore music by transforming it in order to make it more enjoyable and comprehensible.[4] The wavenet [5] is an end-to-end (meaning from raw audio to raw audio) neural network that has recently been introduced as a very successful methods in multitude of application domains : text-to-speech dependent on individual f0 curves and speaker characteristics, speech recognition, speech enhancement, and music generation. Therefore it seems that it could serve as a new paradigm for music transformation as well. The second very recent approach, generative adversarial networks[6], has been very successfully applied in the visual domain to generate images and 3D models of almost photo-realistic quality. This success in the visual domain makes it a promising candidate for audio applications, which have been very few so far. The aim is that the tool will be tested over a web based tool distributed among CI users.

Bibliographie

[1] Nakata, Takayuki. “COCHLEAR IMPLANTS AND MUSIC.” Cholesteatoma and Ear Surgery : An Update, 2013, 155.

[2] Limb, Charles J, and Alexis T Roy. “Technological, Biological, and Acoustical Constraints to Music Perception in Cochlear Implant Users.” Hearing Research 308 (2014) : 13–26.

[3] Yitao, Mao, and Xu Li. “Music and Cochlear Implants.” Journal of Otology 8, no. 1 (2013) : 32–38. doi.

[4] Hsiao, Feilin, and Kate Gfeller. “Music Perception of Cochlear Implant Recipients With Implications for Music Instruction A Review of the Literature.” Update : Applications of Research in Music Education 30, no. 2 (2012) : 5–10.

[5] Oord, Aaron van den, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew Senior, and Koray Kavukcuoglu. “Wavenet : A Generative Model for Raw Audio.” arXiv Preprint arXiv:1609.03499, 2016.

[6] Goodfellow, Ian. “NIPS 2016 Tutorial : Generative Adversarial Networks.” arXiv Preprint arXiv:1701.00160, 2016.


108. Migration d’un algorithme de clustering de Hadoop vers Spark


Lieu : Bagnolet Infotel Tour Gallieni II 36, avenue du Général de Gaulle 93175 Bagnolet Cedex
Encadrant : Jean-François GUERIN
Dates :à partir du 06/03/2017 (6 mois)
Rémunération :1 500€ bruts par mois avec TR et droits à congé (2,08 jours par mois)
Mots-clés : Master SAR, autre qu’ATIAM

Description

Dans le cadre de ses activités dans le domaine du Big Data, Infotel a développé un algorithme de rapprochement de publications scientifiques basé sur des données bibliographiques. Il est destiné à constituer des agrégats de documents stockés dans une base MongoDB notamment afin d’identifier d’éventuels doublons. Ce processus requiert le brassage de plusieurs milliards de clés et est actuellement réalisé via plusieurs jobs Hadoop successifs lancés sur le cluster Big Data Infotel.

L’objectif du stage est de migrer cet algorithme vers Spark afin d’évaluer les optimisations techniques possibles par cette plateforme. Dans cette optique le / la stagiaire sera en charge des tâches suivantes :

- Analyser les sources existantes (Hadoop) et prendre connaissance de l’algorithme existant ainsi que des différentes règles métier - Adapter cet algorithme afin de correspondre au paradigme de la programmation fonctionnelle. - Procéder à l’implémentation sous forme de code exécutable via Spark - Exécuter le programme résultant sur le cluster Big Data Infotel - Identifier les optimisations techniques liées à la distribution du code.


109. Création de jobs Spark en environnement Mesos pour la génération de fichiers XML


Site : Infotel
Lieu : Tour Gallieni II, 36 avenue du Général de Gaulle, 93175 Bagnolet Cedex
Encadrant : Jean-François GUERIN
Dates :début au plus tôt le 6 mars
Rémunération :1 500€ bruts par mois avec TR et droits à congé (2,08 jours par mois)
Mots-clés : Master SAR, autre qu’ATIAM

Description

Sujet :

Ce stage a pour but de créer une extraction XML d’une base de données complète au moyen du framework de calculs distribués Spark. Les données d’entrée seront sous forme de fichiers dump de tables DB2 qu’il faudra trier et appareiller au moyen de Spark. En sortie, un fichier XML valide devra être produit. Les principales étapes sont résumées ainsi : - Conversion EBCDIC UTF8 des données - Tri et appareillage des différents fichiers de dump de la base via Spark - Formatage XML Une des missions du stage est de monter en compétences sur le framework Spark et Mesos, en évaluer les possibilités pour proposer des approches innovantes. Le stagiaire devra également fournir une documentation complète afin de capitaliser les connaissances acquises au cours du stage et d’en faire bénéficier les équipes en place. L’accent sera mis sur l’utilisation de Spark et de Mesos (en tant qu’ordonnanceur) mais également sur la capacité à développer en suivant les standards professionnels (respect des normes de codage ; test unitaires ; utilisation d’un SCM tel que Git ; …)

Environnement technique et compétences requises :

Parmi les technologies qui seront mises en oeuvre ou évaluées : - Framework Spark - La connaissance du langage de programmation fonctionnelle Scala serait un plus - La connaissance de Mesos serait un plus - Java - Format XML

Ce stage est réalisé en équipe projet, il met en avant la force de proposition, la curiosité et l’envie de créer un produit d’exception ! Le stagiaire sera encadré durant la durée de stage, mais devra aussi pouvoir évoluer de manière autonome.


110. Ingénieur d’études et de développement DIGITAL H/F


Lieu : Siège CGI - 17 Place des Reflets, 92400 Courbevoie
Encadrant : Jean Sébastien KIPP
Dates :A partir du 20/03/2017 (Durée : 6 mois)
Mots-clés : Master SAR, autre qu’ATIAM

Description

Le sujet de stage s’articulera autour de SmartCase, une solution de Case Management développée en interne par CGI. Le sujet serait la création d’un nouveau studio de modélisation de processus (IDE) visant à proposer un environnement de fabrication moderne, graphique, WISIWIG, et respectant la notation internationale de modélisation de processus BPMN 2.

Vous aurez en charge de : · Réaliser une étude du marché open source des studio de modélisation de processus (short list, avantages / inconvénients) · Analyser et concevoir un composant permettant de transformer le XML résultant de la modélisation de processus dans le nouvel IDE dans un format interprétable par le moteur d’exécution de processus · Réaliser un POC (proof of concept) sur un processus simple · Vous approprier l’ensemble des patterns de modélisation de processus (formalisés et présentés par un expert du domaine). · Développer et tester le composant de transformation d’une modélisation graphique vers le moteur d’exécution prenant en compte l’ensemble des patterns


111. Optimisation de la perce des instruments à vent : Interpréter les perces historiques pour proposer des solutions nouvelles ?


Lieu : UPMC- 4 place Jussieu. LAM - d'Alembert
Encadrant : Benoit FABRE (Pr UPMC)
Dates :mars-juillet 2017
Rémunération :gratification statutaire
Mots-clés : Parcours ATIAM : Acoustique

Description

Optimisation de la perce des instruments à vent : Interpréter les perces historiques pour proposer des solutions nouvelles ?

La perce des flûtes varie selon les époques, en lien avec les styles musicaux et les techniques de jeu. Ainsi, chaque instrument correspond à un compromis intégrant les contraintes musicales, les contraintes de facture et les contraintes de jeu. La modélisation acoustique des instruments à vents permet de prévoir certaines de leurs caractéristiques acoustiques à partir de leur géométrie. Le projet vise, de manière complémentaire, à proposer une géométrie à partir des caractéristiques acoustiques désirées.

La comparaison entre la perce à tête cylindrique et corps conique des flûtes du 18ème siècle (traverso) et la perce à tête conique et corps cylindrique de la flûte moderne (dite flûte « Boehm ») montre un point commun : la concavité vers l’intérieur. On peut donc voir, du point de vue de l’équation des ondes se propageant dans la perce, ces deux situations comme équivalentes : il s’agirait bien de deux solutions à la même contrainte de justesse de la perce. Si les outils actuels de modélisation acoustique des instruments à vent permettent de prévoir l’admittance d’entrée de l’instrument à partir de sa géométrie, la conception d’un instrument à partir des contraintes musicales (justesse, richesse spectrale, contrôle attendu de l’instrumentiste) constitue un problème actuel de recherche.

L’objectif du travail proposé est l’optimisation de la perce, partant de modèles très simplifiés (par exemple sans trous latéraux ni effets dissipatifs en propagation) et intégrant progressivement différents éléments. Des approches complémentaires pourront être utilisées : analytique, numérique utilisant des outils existants de calcul d’admittance d’entrée, expérimental réalisant certaines perces pour en apprécier la pertinence, éventuellement en conditions de jeu. Les résultats attendus vont de la compréhension des perces utilisées à différentes époques, à la proposition d’évolutions de la perce.

Public visé M2 en Sciences de l’Ingénieur, et plus particulièrement Acoustique, Signal.

Compétences attendues Acoustique, Optimisation, Notions musicales.

Outils utilisés Modélisation acoustique (Matlab, Pafi…), équation des ondes, mesures d’impédances.

Durée du stage 4 à 6 mois

Lieu du stage Équipe Lutheries-Acoustique-Musique de l’Institut Jean le Rond d’Alembert Université Pierre et Marie Curie – Campus Jussieu

Encadrement Benoît FABRE, professeur à l’UPMC, LAM d’Alembert

Bibliographie

[1] : Optimal control theory : a method for the design of wind instruments, G. Le Vey, 2010

[2] : Webster’s horn equation revisited, S. W. Rienstra, 2005

[3] : Acoustic impedance spectra of classical and modern flutes. J. WOLFE, J. SMITH, J. TANN, N.H. FLETCHER Journal of Sound and Vibration, Vol 243


112. Evolution historique et technique de jeu : comment la facture affecte‐t‐elle la technique de jeu ?


Lieu : UPMC - 4 place Jussieu 75005 Paris. LAM - d'Alembert
Encadrant : Benoit FABRE (Prof UPMC)
Dates :mars-juillet 2017
Mots-clés : Parcours ATIAM : Acoustique

Description

Dans le jeu de la flûte traversière, l’instrumentiste doit ajuster plusieurs paramètres de contrôle pour produire le son désiré, en termes de hauteur, de force sonore et de sonorité. Ces ajustements sont fonction de la réponse acoustique de l’instrument et offrent, dans une certaine mesure, une image des propriétés acoustique de l’instrument, telles qu’elles sont déterminées par la facture. Le début du 19eme siècle est une époque charnière dans l’évolution de la flûte traversière. A cette époque, plusieurs évolutions sont proposées, que ce soit en Allemagne, en Angleterre ou en France. A partir de 1830, de nombreuses flûtes apparaissent qui constituent une transition entre les flûtes héritées du 18ème siècle et le modèle breveté par Boehm en 1847. Ces flûtes de transition sont caractérisées par une tête cylindrique, un corps conique et un clétage qui est très proche de celui de 1847. Fabriqués jusqu’au début du 20ième siècle, ces instruments ont eu une bonne diffusion et certains exemplaires sont encore joués aujourd’hui, dans une volonté de se rapprocher des instruments de l’époque de composition du répertoire musical du 19ème siècle. L’objectif du travail proposé est d’explorer les liens entre technique de jeu (paramètres de contrôle) et réponse acoustique de l’instrument, dans une lecture comparative entre deux instruments : un instrument moderne et une flûte de transition. De cette comparaison pourra naître d’une part une meilleure connaissance des spécificités de sonorité de la flûte de transition et, d’autre part, des pistes de réflexion pour la fabrication de nouvelles flûtes de type « transition ». Public visé M2 en Sciences de l’Ingénieur, et plus particulièrement Acoustique, Signal, Image. Compétences attendues Acoustique, Traitement de signal, Traitement d’images, Notions musicales. Outils utilisés Mesures sur des instrumentistes, analyses de signal et d’image (Matlab), modélisation acoustique. Durée du stage 4 à 6 mois Lieu du stage Équipe Lutheries‐Acoustique‐Musique de l’Institut Jean le Rond d’Alembert Université Pierre et Marie Curie – Campus Jussieu Encadrement Benoît FABRE, professeur à l’UPMC, LAM d’Alembert


113. Développement des nouveaux services numériques de la DGFiP


Site : Sopra Steria
Lieu : Sopra Steria - Tour Manhattan 5 Place de l'Iris - Courbevoie 92095 La Défense
Encadrant : David BERNIER
Dates :du 20/03/2017 au 31/08/2017
Rémunération :1400€ bruts / mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Sopra Steria, en tant qu’acteur majeur de l’IT en Europe, est au coeur des sujets de transformation numérique. En appui des technologies nouvelles telles que le Big Data, le Cloud, la mobilité ou encore l’Internet des objets (IoT), la construction des services numériques de la DGFiP impose une transformation en profondeur de son Système d’Information.

***** Mission ***** Sopra Steria vous offre la possibilité de rejoindre les différents projets de la DGFiP impactés par les dernières mesures législatives et réglementaires prises par l’Etat. À ce titre, vous serez amené(e) à participer aux phases de prototypage et de développement des architectures nouvelles de son SI sur des sujets très visibles que sont par exemple la DSN, le prélèvement à la source, la télé-déclaration de l’impôt ou encore la modernisation du système de paye de la fonction publique. Vous serez encadré(e) par des architectes expérimentés sur des missions de réalisation diverses et fortement ancrées dans la dimension technique. Vous viendrez en appui sur différents projets et vous verrez confier des sujets de développement en propre sous la responsabilité d’un manager. Les technologies manipulées vont du NoSQL aux solutions mobiles en passant par les clients riches ou les micro-services sans oublier les technologies plus matures employées à la DGFiP (Linux/J2E/PostgreSQL) et son framework de développement Lombok. Les dimensions performance et sécurité ne sont jamais oubliées et vous permettront de vous exprimer sur les différentes facettes d’une solution complète. Vous bénéficierez de toute l’expertise de Sopra Steria pour vous perfectionner et mettre en pratique les technologies de demain.

***** Intérêts du stage *****
- Approfondir vos compétences sur différentes technologies,
- Aborder la problématique de l’architecture,
- Se positionner sur les phases amont de définition des projets au travers du développement de prototypes des solutions et démontrer leur efficience,
- Appréhender un projet complexe où certaines mesures règlementaires impactent plusieurs applications,
- Contribuer à la mise en oeuvre de services très visibles de l’ensemble des citoyens.

Lieu du stage : Paris Équipe : 20 personnes Métiers : Architecture Urbanisation des SI Environnement technique : Java, J2E, .Net, SharePoint BigData, NoSQL, …


114. Fiabilisation et optimisation d’un bus de message temps réel dans un environnement distribué et big data


Lieu : Scaled Risk 8 Rue Du Sentier 75002 Paris
Encadrant : Azwaw OUSADOU, Ingénieur Solution
Dates :Dès que possible
Rémunération :1000€ par mois
Mots-clés : Master SAR, autre qu’ATIAM

Description

Service dans lequel se déroulera le stage : Recherche et développement de la société Scaled Risk

Technologies : Hadoop (YARN, MapReduce, HDFS, HBase), Java core, Lucene, Netty

Sujet de stage : Fiabilisation et optimisation d’un bus de messages temps réel dans un environnement distribué et big data

Domaines techniques et fonctionnels abordés :

Le stagiaire interviendra sur un progiciel de data management big data (Hadoop) spécialisée pour la finance. Les capacités temps réelles sont au cœur de la plateforme en raison du domaine métier concerné. Dans ce contexte, le stagiaire pourra aborder le domaine de la finance de marché.

Détails du sujet :

Le stagiaire aura pour responsabilité de faire une mesure objective de la qualité du bus temps réel existant intégré à la plateforme Scaled Risk. Ce bus s’appuie sur le protocole UDP et gère la perte de message par des principes de long polling :

- Via calls RPC

- Via récupération de messages sur HDFS

Il s’agira dans un premier temps de compléter le harnais de test par les cas manquants : cycle de vie des régions HBase, perte de messages, etc. Il s’agira ensuite de corriger les éventuels bugs.

Dans un second temps, il s’agira de monter un protocole de test de performance du bus, d’identifier les goulets d’étranglement, de préconiser les modifications et de les mettre en œuvre.


115. Stage : Conception et développement du produit mobile GED/Workflow Arondor


Site : Stage : Conception et développement du produit mobile GED/Workflow Arondor
Lieu : 22 rue de la Pépinière - 75008 Paris
Encadrant : Maxime VERON - Responsable Produit R&D
Dates :20/03/2017 AU 25/08/2017
Rémunération :1000 € Brut/mois + Tickets Restaurant
Mots-clés : Master SAR, autre qu’ATIAM

Description

Au sein de notre pôle R&D : S’inscrivant dans le Projet GED Mobile (POC réalisé en 2013, projet désormais en phase de conception) le stagiaire s’inscrit dans une démarche ambitieuse techniquement et fonctionnellement.

Il s’agira pour le stagiaire de :

– Intégrer la connexion du produit de GED/Workflow d’Arondor, alias Flower à une solution mobile.

– Capter un maximum d’informations fournies par les périphériques mobiles (GPS, image, vidéo, son …) et permettre à Flower d’enrichir le monde de la GED de ces nouveaux instruments de mesure.

Grâce à ce travail, un utilisateur pourra sur support mobile :

– Capter les flux de documents (caméra, micro, fichier local…)

– Insérer ces documents facilement

– Indexer, visualiser

– Traiter des tâches : validation, consultation

– Transférer (mail, …)

Cette cible de travail donnera à l’étudiant l’occasion de découvrir et participer à l’amélioration de nos deux produits phares ARender et Flower.

La démarche employée sera axée projet :

– Itérative (Runs de 2 semaines) :

– Maquettage initial et découverte des solutions

– Formulation / Spécifications / Architecture

– Consolidation

Les technologies employées seront les suivantes :

– Java, Spring, J2EE, GWT (technologies de nos produits)

– En fonction de la cible choisie pour la mobilité (native, web, “Web-native”) le candidat sera amené à utiliser :

Les technologies natives iOS (Swift, Objective-C) ou Android (Java)

Les technologies Web récentes (React, Angular) ou technologies Web “natives” (React native, WebView)

– Le développement se déroulera en approche TDD (test driven development), méthode Agile type Scrum avec Sprint réguliers.

Sujet basé sur la mobilité, l’ergonomie, la fluidité et la facilité d’utilisation pour les utilisateurs finaux seront des critères clés de réussite.


116. Développeur Fonctionnel


Site : Développeur Fonctionnel
Lieu : 82 rue Saint Lazare 75009 PARIS
Encadrant : Hadhemi FEJJARI
Dates :20/03/2017 au 30/08/2017
Rémunération :1075
Mots-clés : Master SAR, autre qu’ATIAM

Description

"Description du poste :

Habitué(e) à travailler dans un environnement à haute valeur ajoutée et de forte compétitivité, votre persévérance et votre goût prononcé pour la recherche de solutions pertinentes sont des atouts indispensables pour votre réussite dans ce poste.

Aujourd’hui, vous désirez valoriser votre expérience au sein d’un éditeur leader sur son marché ? Rejoignez le groupe GFI et ITN ! La filiale de GFI, ITN, éditeur de progiciels permettant de gérer et d’industrialiser l’intégralité des processus métiers de l’Assurance recherche un concepteur/développeur Java JEE (H/F) afin de participez activement au processus de développement & maintenance de nos progiciels d’assurance.

Principales missions :

Vous participez activement au processus de développement & maintenance de nos progiciels d’assurance : * Participer aux activités de conception et de spécification * Evaluer les temps de développement * Réaliser des développements normés, documentés et respectant les normes de qualité des progiciels * Participer aux travaux R&D visant à améliorer nos progiciels * Travailler dans une équipe dynamique organisée via des méthodes agiles (Scrum),Partager vos connaissances avec le reste de l’équipe * Suivi et communication de l’avancement des travaux (méthode agile de type Kanban / Scrum) * Assurer les tests et les recettes fonctionnelles * Préparer et organiser des démo internes et face aux clients * Mise à jour de documentation

Profil recherché :

Maîtrise des langages objets, principalement JAVA * Frameworks Spring, Hibernate, Maven * Serveurs d’application JEE (Websphere /Weblogic/JBoss) * Technologies WEB (idéalement « Play !Framework version 2 ») * Possibilité d’embauche en fonction des résultats et de l’investissement lors du stage * Technologies Client Lourd (idéalement "SWT/RCP Framework")

Vous êtes rigoureux et méthodique Vous avez le sens du service, de l’écoute et de la qualité, L’assurance est un secteur qui vous intéresse ! Alors n’hésitez plus et postulez !

Niveau d’études : Bac +5

Expérience professionnelle : Inférieur à 6 mois

Début du contrat : 23-02-17

Durée du contrat : De 5 à 6 mois


117. DÉVELOPPEMENT JAVA/JEE SUR UNE PLATEFORME LOGICIELLE DE DISTRIBUTION DE VOYAGES


Lieu : 38 Avenue de l'Opéra 75002 PARIS
Encadrant : Responsable Administratif : Gaëlle BOUCHOUT
Dates :Du 27/03/2017 au 01/09/2017
Rémunération :SMIC
Mots-clés : Master SAR, autre qu’ATIAM

Description

Vous serez intégré(e) dans une équipe (environ 5 pers.) en charge du développement d’un des modules de la plateforme. Dans le cadre d’une pré-embauche, le stage vous permettra d’acquérir des compétences solides dans les domaines suivants : o Frameworks open source java/JEE o Web services, technologies XML o Base de données relationnelle o Interfaces Web 2.0 o Outils de gestion des sources (CVS, Subversion) et d’intégration continue (compilation, analyse de code)

Vous participerez à toutes les phases du développement logiciel depuis les spécifications jusqu’à la mise en production.

VOTRE PROFIL :

Nous recherchons des personnes faisant preuve d’autonomie, du sens des responsabilités, de rigueur et d’une forte capacité d’apprentissage. Les connaissances techniques requises sont : o Conception orientée objet o Technologies web o Langage java o Utilisation de design patterns o Notions de notation UML.

ENVIRONNEMENT TECHNIQUE : o Java /JEE : EJB3, JSF, Struts 2, Seam, Spring o Eclipse, Maven 2, CVS, SVN, JIRA o XML : XSD, XSLT, Databinding, SOAP o JBOSS, Apache, Oracle


118. Diagnostic acoustique passif : approches de deep learning appliquées à des problèmes inverses


Site : Saint-Gobain Recherche
Lieu : Saint-Gobain Recherche (39 quai Lucien Lefranc 93300 Aubervilliers)
Encadrant : Vincent Nier
Dates :Toute date (durée 4 à 6 mois)
Rémunération :1300 euros bruts par mois
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Contexte

Saint-Gobain, leader mondial de l’habitat, conçoit, produit et distribue des matériaux de construction en apportant des solutions innovantes. Dans le cadre de sa stratégie liée à l’habitat durable, la société Saint-Gobain s’intéresse aux conforts dans l’habitat, en particulier au niveau de l’acoustique.

Dans cette démarche, le diagnostic in situ simplifié est un axe de recherche important, qui se matérialise pour l’acoustique à travers le diagnostic acoustique passif. Dans cette optique, les caractéristiques acoustiques d’un lieu (temps de réverbération, clarté de la parole, etc.) sont déterminées via un enregistrement de l’environnement sonore, sans recours à aucune source d’excitation dédiée et venant perturber l’environnement. Ainsi tout un chacun pourrait caractériser simplement les propriétés acoustiques d’une pièce à travers l’analyse d’un simple enregistrement sonore, avec son portable par exemple.

Objectif du stage

L’objectif de ce stage est d’étudier les apports de diverses approches, et en particulier les approches de type deep learning, pour la résolution du problème décrit précédemment. L’étudiant pourra se baser soit sur des stratégies de type « blind deconvolution » où le but est de retrouver la réponse impulsionnelle totale d’un lieu, soit sur la construction de modèles prédictifs spécialisés pour une grandeur acoustique donnée.

Compétences attendue pour le candidat

Le candidat devra posséder de bonnes bases en programmation, machine learning et acoustique. L’environnement de travail est ouvert, mais nous avons une préférence pour des solutions basées sur python/keras/tensorflow. Le stage s’effectuera dans un environnement de travail transdisciplinaire, où la curiosité et l’esprit d’initiative seront très appréciés.

Si intéressé, merci d’envoyer un CV et une lettre de motivation à vincent.nier@saint-gobain.com