February 12, 2018

Jean-Louis Giavitto (UMR STMS - CNRS, Ircam, Sorbonne Université)

La musique mixte «électronique-instrumentale» fait cohabiter lors du concert des instrumentistes et un ordinateur calculant en temps-réel une réponse sonore aux actions des musiciens humains. Pour qu’il y ait un véritable échange musical humain-machine, cette dernière doit percevoir les relations musicales qui se construisent dans le vif du concert et être capable d’y répondre et y insérer son interprétation.

La synchronisation musicale entre un humain et une machine est un phénomène complexe qui induit des rétroactions difficiles à anticiper, l’humain s’adaptant à la machine qui cherche à s’adapter à l’humain. De plus, les relations temporelles en jeu échappent à une simple description chronométrique : c’est un ensemble de lignes de temps événementielles et duratives, dont l’avancement se construit de manière distribuée à travers tous les acteurs de la performance, en relation les unes aux autres.

Dans cette présentation nous décrirons les notions temporelles développées dans Antescofo, un système de suivi de partition couplé à un langage informatique temps-réel, pour répondre à ces problématiques.