Master 2018 2019
Stages de la spécialité SAR
Reconnaissance d’incidents sonores par deep learning en milieu ferroviaire embarqué


Site : Trac-Reconnaissance d’incidents sonores par deep learning en milieu ferroviaire embarqué
Lieu : Le Mans
Encadrant : Sitou AFANOU
Dates :01/03/2019 au 01/09/2019
Rémunération :Environ 1000 EUR
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Description

Contexte de l’unité Au sein de SNCF Mobilités, le Centre d’Ingénierie du Matériel réalise des missions d’expertise dans diverses spécialités lors de l’acquisition et la rénovation de matériels roulants. Intégré à la spécialité ‘’Train Communicant’’, le groupe ‘’Images’’ expertise et conçoit sur des solutions de surveillance à base de caméras vidéo, ainsi que diverses solutions d’audiosurveillance.

Contexte du stage Dans le cadre de l’expérimentation et l’industrialisation de diverses solutions de « Surveillance intelligente », le matériel roulant doit embarquer des solutions logicielles et/ou matérielles, complètement autonomes, qui doivent être utilisées pour détecter des situations anormales : agression physique ou verbale, coup de feu, explosion. La veille technologique réalisée au sein de l’équipe montre l’arrivée à maturité de systèmes permettant de détecter certaines situations à partir de flux sonores associés à une intelligence adaptée

But du stage Le stage a pour but de développer des algorithmes de reconnaissance d’incidents sonores dans une rame ferroviaire équipée d’un réseau de microphones. Le stagiaire devra se baser sur les travaux déjà en cours dans l’équipe et développer des algorithmes en tirant profit des meilleures techniques de ‘’audio event detection’’ existant dans la communauté scientifique. Le stage se déroulera en deux grands volets :

  • Le volet algorithmique : Les activités envisagées dans ce volet sont :
    • Faire un état des lieux bibliographique des travaux et techniques avancées permettant la reconnaissance d’un motif sonore dans un signal audio, puis étudier comment ces algorithmes se comportent face aux phénomènes sonores propres à l’embarqué ferroviaire : roulement mécanique, annonces d’information voyageurs, contact roue/rail, …
    • Exploration des techniques de détection sonore avec des modèles de deep learning : CNN, GRU, LSTM, R-CNN, CRNN, … puis analyse des performances des différents algorithmes
    • Développer et fournir un logiciel embarqué issu des conclusions et choix technologiques réalisés à l’étape précédente, et basé sur un pipeline de traitement efficace permettant la reconnaissance d’une classe d’incident sonore, puis de 4 classes
    • Tester et valider sur table la solution logicielle sur des séquences audio pré enregistrés, puis rapidement sur des flux audio temps réel
  • Le volet Intégration
    • Porter la solution logicielle sur calculateur ferroviaire embarqué, puis réaliser des essais in-situ sur matériel roulant. Les solutions mises en œuvre devront prendre en compte l’aspect « temps-réel » de l’application finale qui implique l’activation d’une alarme visuelle ou informatique lorsqu’il y a détection d’un incident sonore

Profil recherché Le stage s’adresse aux étudiants en dernière année d’école d’ingénieur ou Master 2 informatique, acoustique ou traitement de signal (BAC+5) Les compétences techniques ciblées pour ce stage sont :
-  Langages : Python, PyAudio, PyDub, Flask
-  Framework deep learning : Keras, TensorFlow
-  Système d’exploitation : LINUX (Ubuntu / Fedora) & Windows
-  La connaissance de langages web (type Javascript, PHP, …) est un plus Les compétences fonctionnelles suivantes sont demandées
-  Intelligence artificielle
-  La connaissance des fondamentaux du traitement de signal audio est indispensable Le stagiaire devra faire preuve d’autonomie et d’initiative ainsi que d’un bon sens relationnel. Curiosité technique et esprit de synthèse seront également nécessaires.

Bibliographie

Detection, classification and localization of acoustic events in the presence of background noise for acoustic surveillance of hazardous situations, K. Lopatka & J. Kotus & A. Czyzewski

AUTOMATIC SOUND DETECTION AND RECOGNITION FOR NOISY ENVIRONMENT, Alain Dufaux, Laurent Besacier, Michael Ansorge, and Fausto Pellandini

SCREAM AND GUNSHOT DETECTION IN NOISY ENVIRONMENTS, L. Gerosa, G. Valenzise, M. Tagliasacchi, F. Antonacci, A. Sarti