Master 2018 2019
Stages de la spécialité SAR
Middleware pour la gestion distribuée du temps musical


Site : Représentations musicales
Lieu : UMR 9912 Science et Technologie de la Musique et du Son — IRCAM
Encadrant : Jean Bresson et Jean-Louis Giavitto
Dates :01/03/2019 au 31/07/2019 (à discuter)
Mots-clés : Parcours ATIAM : Informatique musicale

Cliquer ici pour vous authentifier


Description

Se synchroniser, se coordonner, s’accorder, faire se coïncider, se répondre, être à l’unisson… la diversité du vocabulaire dédié à la mise en correspondance dans le temps de nos activités montre l’importance que revêt leur organisation temporelle. Les arts performatifs, et la musique particulièrement, sont des domaines qui concentrent ces problématiques : comment, lors de l’interprétation d’une œuvre musicale ou scénique, réaliser les relations temporelles complexes exprimées dans une partition, un scénario ou un script ? Et comment y intégrer les dispositifs technologiques qui produisent des informations de synchronisation pour des médias temporels de toutes sortes (son, musique, images, animations, lumière, automation, etc.), qui doivent interagir avec leur environnement, les interprètes (musiciens, danseurs, acteurs) et aussi le public ?

Le stage proposé vise à apporter des éléments de réponses en développant une API logicielle permettant à des applications existantes de se synchroniser via des communications de type OSC. Deux applications sont plus particulièrement visées : OpenMusic et Antescofo, dans le but de simplifier la construction d’applications musicales interactives en confiant les parties génératives à OpenMusic et en coordonnant les activités de générations et de rendus avec Antescofo. Plusieurs objectifs scientifiques et techniques sont visés et les priorités dépendront de l’intérêt de l’étudiant et des résultats obtenus.

Une couche de communication améliorée. OSC c’est imposé comme medium de communication du contrôle en informatique musicale. Pourtant, d’autre middleware, comme ZQM, offrent des primitives de communications plus modernes. L’objectif ici est d’étendre les capacités d’OSC, afin de maintenir un temps global partagé, d’échanger des informations de nature temporelle (occurrence d’événement, tempi) entre applications, permettre un routage actif et l’exécution distante d’expression à la manière de odot.

Evènements temporels distribués. L’objectif est de pouvoir détecter des événements temporels distribués à la fois événementiel (par exemple : entre l’événement A et B qui se produisent sur la machine 1, il n’y a eu que des événements de type C sur la machine 2) et temporisé (le processus P sur la machine 1 doit s’exécuter avec le tempo du processus Q sur la machine 2).

Moniteurs d’activité. Le pilotage d’applications musicales interactives nécessite des interfaces graphiques souvent complexes et coûteuses à réaliser. L’émergence de nouvelles solutions techniques « dans un navigateur » permet d’envisager des approches portables, facilement déployables et permettant de répondre à une grande variété de besoins. L’objectif ici est de développer divers composants de visualisation dans une fenêtre de navigateur web, par exemple pour l’édition, l’affichage et l‘animation dynamique de partition, de « piano-roll » et de « time-line ».

Bibliographie

Voir la page http://repmus.ircam.fr/giavitto/sta... pour accéder aux URL des articles.

• Cont. Synchronisme musical et musiques mixtes : du temps écrit au temps produit in Circuit : musiques contemporaines, , 22 (1), Presses de l’Univ. de Montreal, 2012.

• R. Goebel, R. Sanfelice, A. Teel, Hybrid dynamical systems. IEEE Control Systems Magazine 29 (2):28–93. 2009

• R. Dannenberg, Time-Flow Concepts and Architectures For Music and Media Synchronization, pp. 104-109. ICMC 2017.

• J. L. Giavitto, J. Echeveste. Real-time matching of antescofo temporal patterns. In 16th Int. Symp. on Principles and Practice of Declarative Programming, pp. 93-104. ACM 2014.

• J. Goubault-Larrecq, J.-P. Lachance. On the complexity of monitoring Orchids signatures, and recurrence equations. Formal Methods in Syst. Design, 53(1), 6–32. 2018.

• Wang, G. ChucK : A strongly-timed and on-the-fly environ/mentality. Computer Music Journal, 39:4, pp. 10–29, 2015.

• M. McCurry. Rtosc - Realtime Safe Open Sound Control Messaging. Linux Audio Conf. 2018.

• R. Dannenberg, Z. Chi, O2 : Rethinking Open Sound Control. In 42nd Int. Comp. Music Conf., pp. 493-496, 2016.

• J. Bresson, J. MacCallum, A. Freed. o.OM : structured-functional communication between computer music systems using OSC and Odot. In 4th Int. Work. on Functional Art, Music, Modelling, and Design, pp. 41-47. ACM, 2016.

• J MacCallum, R Gottfried, I Rostovtsev, J Bresson, Dynamic Message-Oriented Middleware with Open Sound Control and Odot. Int. Comp. Music Conference, ICMC 2014.