Ateliers du Forum Ircam Paris – Programme 2015

Ircam et Gaîté lyrique

du 24 au 26 novembre 2015,  en partenariat avec RBMA

Suivez et partagez sur #ircamforum !
Points forts 2015 :
– Nouvelles fonctionnalités dans Antescofo, AudioSculpt, Spat
– Evènements sociaux : Ircam Live 2015, panel industriel avec les équipes de Cycling’74 et Ableton, Flux:: posters étudiants…
Ateliers et présentations sur les systèmes embarqués : Raspberry Pi, Max gen~ export, FAUST et Web audio.

Mardi 24 novembre

Mardi 24 novembre

Gaîté lyrique, Salle de Conférence

Horaire Sujet Intervenant(s)
9:30-10:00 Bienvenue Arshia Cont, Paola Palumbo (Ircam)
10:00-10:30 Overview sur les nouveautés R&D Hugues Vinet (Directeur R&D, Ircam)
10:30-11:00 Nouveautés Max Joshua Kit Clayton, David Zicarelli, Emmanuel Jourdan (Cycling ’74)
11:00-11:30 Pause
11:30-12:00 Orchids – Nouvelle version Philippe Esling, Daniele Ghisi (Ircam)
12:00-12:30 Nouveautés Antescofo José Echeveste (équipe MuTant, Ircam)
12:30-13:00 Nouveautés Spat Olivier Warusfel, Thibaut Carpentier (équipe EAC Ircam)
13:00-14:30 Déjeuner
14:30-15:00 Nouveautés sur l’Analyse Synthèse Axel Roebel & l’équipe Analyse/Synthèse
15:00-15-30 Improvisation assistée par ordinateur Jérôme Nika, Gérard Assayag (équipe RepMus Ircam)
15:30-16-00 OpenMusic 6.10 Jean Bresson, Karim Haddad (équipe RepMus Ircam)
16:00-16:30 Pause
16:30-17:00 Web audio Norbert Schnell, Samuel Goldszmidt (Ircam)
17:00-17:30   
FAUST est un langage de programmation de haut niveau, conçu pour décrire de manière concise et efficace des procédés de synthèse et de traitement du son. L’une des spécificités de Faust est d’être entièrement compilé, ce qui permet d’obtenir, à partir d’un même code Faust, des applications et des plugins performants pour une grande diversité de plateformes. Après une introduction au langage Faust, la conférence détaillera les stratégies mises en oeuvre pour simplifier l’utilisation d’un langage compilé dans un contexte musical, en particulier : la compilation embarquée dans d’autres applications, développée dans le cadre du projet ANR INEDIT (IRCAM, LABRI, GRAME) et l’utilisation du Web comme plateforme de compilation et de prototypage rapide développée dans le cadre du projet ANR FEEVER (MINES, INRIA, UJM et GRAME).
Yann Orlarey (Grame)
17:30-18:00 Modalys Robert Piechaud, Carlo Laurenzi (Ircam)

 

20:00-23:00  Concert Ircam Live – Holly Herndon

Mercredi 25 novembre

Mercredi 25 novembre

Session parallèles – à l’Ircam

Horaire Sujet Intervenant(s)
10:00-10:30 GiantSteps – avances dans la production de la musique électronique Kristina Andersen (STEIM, NL), Sergi Jordà (MTG – UPF, ES)
10:30-11:00 Préparer un ordinateur Pico pour la scène Katja Vetter
11:00-11:30 Pause
11:30-12:00 Projet Vignette Coala
Nicolas Mondon((compositeur en résidence), Adrien Mamou – Mani((équipe Acoustique Instrumentale, Ircam), Simon Milon (violin)
12:00-12:30 CatOracle : l’improvisation concatenative avec MuBu Aaron Einbond (compositeur en résidence), Séverine Ballon (cello)
12:30-14:00 Buffet
14:00-16:00 Conférence Détour – avec Holly Herndon Frédérick Rousseau, Holly Herndon & Mat Dryhurst, Assimilation Process, Marco Donnarumma, Gérald Kurdian, Alex Augier, Loïc Touzet, collectif Kompost, Jean-Yves Leloup
16:00-16:30 Pause
16:30-17:00
Autour de la création sonore Iles Ephémères* de Cécile Le Prado, nous présenterons des techniques d’écriture de la spatialisation du son faisant appel au Spatialisateur de l’IRCAM, piloté par le logiciel Ableton Live via Max et Max For Live.
Iles éphémères est une oeuvre sonore installée durant l’été 2015 au Prieuré de La Charité sur Loire, monument situé sur l’ancienne Via Lemovicensis du chemin de Compostelle. La pièce reprend cette idée de passage, de situations d’écoutes renouvelées par le voyage, par le déplacement, par la marche, et s’articule à la manière d’un paysage, d’après des prises de sons, des interviews, des écrits en relation avec le territoire. L’espace musical est travaillé en fonction des lieux d’écoute, de leurs configurations et de leurs qualités acoustiques. La spatialisation musicale est l’un des paramètres primordiaux de l’écriture.
*Commande du Prieuré – Cité du Mot – CCR de La Charité-sur-Loire.
Manuel.Poletti, Julien Chirol (Music Unit),.Cécile.Le.Prado (compositrice)
17:00-17:30 Les outils Ambisonic pour Reaper Trond Lossius
17:30-18:00 Projet Hamelin
Bernard Szajner (compositeur)
18:00-18:30 Création de Dels dos principis, septuor avec jongleur Henry Fourès (compositeur), Augustin Muller (RIM)

Seulement les participants avec un ordinateur portable (18 places)

Horaire Sujet Intervenant(s)
10:00-11:00 Rendez-vous utilisateurs OpenMusic Mikhail Malt, Jean Bresson (Ircam)
11:00-11:30 Pause
11:30-12:00
Holopad propose une manière originale de jouer la spatialisation des sons sur des tablettes multitactiles. Il tend à unifier le modèle du traditionnel point source virtuel avec une approche plus acousmatique, permettant d’éclater une source sonore en plusieurs points de diffusion virtuels.
Progest est une recherche sur comment définir des trajectoires et plus précisément des comportements spatiaux par le geste. En effet, l’ajustement des modèles paramétriques est souvent une tache difficile et peu intuitive dans la phase de spatialisation. L’idée est ici d’avoir un système d’analyse du geste d’entrée de par ces caractéristiques spatiales et temporelles, et de pouvoir le poursuivre « à la manière de ». Ces caractéristiques peuvent être autant périodiques que stochastique, ceci permettant de représenter une large classe de comportements spatiaux. Ce travail est mené en collaboration avec Valentin Emiya (LIF-Marseille) et Mathieu Lauriere (LJLL-Paris).
Charles Bascou (gmem-CNCM-marseille)
12:00-12:30
Le projet MusineKit est né de la rencontre entre Sensomusic et de la Muse en Circuit et de cette constatation : les outils numériques destinés à favoriser la découverte de la création musicale sont aujourd’hui peu nombreux et souvent dépassés techniquement. Leurs usages sont limités par des interfaces restrictives ou leur complexité ne les rend pas accessibles au plus grand nombre (enfants, enseignants et pédagogues, adolescents en autonomie). La Muse en Circuit – Centre national de création musicale – possède une longue expertise dans la création audionumérique et dans les pratiques de transmission des musiques contemporaines. Son travail pédagogique s’est toujours appuyé sur des technologies grand public et sur des outils destinés à une utilisation en live, avec comme nécessité absolue une efficacité et une fiabilité à toute épreuve.
La société Sensomusic développe depuis vingt ans le logiciel « Usine » basé sur le même postulat. Il s’agit d’offrir à l’utilisateur professionnel un outil fiable pour la pratique des musiques sur scène et pour les installations interactives. Si les qualités du logiciel Usine sont nombreuses, deux caractéristiques sont particulièrement attrayantes : sa prise en main est très rapide et il peut être piloté ou interagir avec la plupart des interfaces de l’industrie (réseaux, interfaces MIDI, Leap motion, joysticks, Wiimote, tablette graphique, signal vidéo, etc.).
MusineKit est le fruit de nos compétences mises en commun. MusineKit est un outil résolument moderne, en phase avec nos pratiques numériques (et celles des utilisateurs). Tous les publics sont susceptibles d’appréhender le logiciel, des plus jeunes aux adultes, de la simple découverte du monde sonore à la production musicale).
Sébastien Béranger (La Muse en Circuit)
12:30-14:00 Buffet
14:30-15:00
Le projet TaCEM (Technologie et Créativité en Musique Électroacoustique), financé par le Conseil de la Recherche en Arts et Sciences Humaines  du Royaume-Uni (AHRC), explore les relations entre processus créateurs et innovations technologiques à partir de huit œuvres phares du répertoire électroacoustique. Une part significative de la dissémination de cette investigation est sous la forme de logiciels qui incluent, d’une part, des outils interactifs pour engager l’écoute aussi bien des structures des œuvres considérées que des technologies employées et, d’autre part, des matériaux filmés avec les compositeurs et, le cas échéant, leurs collaborateurs. Cette présentation propose une démonstration des logiciels développés pour deux figures majeures de l’avènement de l’électronique en temps-réel à l’Ircam, Pluton de Philippe Manoury (1988) et Music for Tuba and Computer de Cort Lippe (2008), et compare les aspects esthétiques et technologiques de ces œuvres et de leurs environnements temps-réel pour l’interprétation.
Michael Clarke (CeReNeM, University of Huddersfield, UK), Frédéric Dufeu (CeReNeM, University of Huddersfield, UK), Peter Manning (Durham University, UK)
15:00-15:30
Les IndescripTools étaient à la base un ensemble d’applications à but pédagogique, destinées à initier les musicologues à l’utilisation des descripteurs sonores (énergie, fréquence fondamentale, attaques, brillance) dans l’analyse musicologique. J’avais utilisé ces outils dans le cadre de mon enseignement de Master, « Analyse du signal musical » à Paris IV, Sorbonne. Actuellement, cet outil se développe pour devenir un environnement d’exploration de descripteurs audio pour l’analyse musicale et la recherche. Il comprend l’analyse d’une cinquantaine de descripteurs audio, le calcul de la BStD, de matrices de similarité, en plus de la possibilité d’importer des analyses d’autres sources (zsa.descriptors, Ircamdescriptors~, Sonic Visualiser, etc.), mais aussi d’exporter ses propres analyses en format texte. Les IndescripTools sont développés dans l’environnement de développement MAX/MSP » (© www.cycling74.com) , utilisant les <Ircamdescriptors~> (© Ircam), la librairie <Mubu&Co> (© Ircam) et les <zsa.descriptors> (© Jourdan & Malt).
Mikhail Malt (Ircam)
15:30-16:00
Sampo est un dispositif électronique pour tout musicien ou compositeur dans le but d’élargir le champ sonore d’un instrument acoustique. Il est conçu pour jouer la musique de tous les genres. De plus, Sampo permet de jouer le répertoire de la musique mixte des XXe et XXIe siècles. Sampo s’adresse tout autant à des professionnels qu’à des amateurs de la musique.
Sampo est un dispositif doté de plusieurs pédales (de quatre à sept) qui permet au musicien soliste de modifier la sonorité de son instrument par des gestes simples. Le musicien obtient ainsi un instrument augmenté. Les effets sonores produits par Sampo font partie intégrante de l’instrument acoustique.
L’un des buts du dispositif est de mettre à la disposition des musiciens un moyen efficace pour jouer la musique dite “live-electronic” ou la musique avec la bande facilement et sans aucune contrainte.
Un important travail de transcription du répertoire de la musique mixte est effectué pour enrichir en permanence le nombre de pièces disponibles pour Sampo.
La transcription des pièces garantit la pérennisation du large répertoire existant. Ainsi les pièces actuellement disponibles comprennent des œuvres des compositeurs Saariaho, Reich, Risset et Maresz entre autres.
Alexander.Mihalic (MUSINFO)
16:00-16:30 Pause
16:30-18:00 Travaux pratiques AudioSculpt Marco Liuni (Ircam)

Time Title Speaker(s)
10:00-11:00 Travaux pratiques Modalys Laurenzo Pagliei (Ircam)
11:00-11:30 Pause
11:30-12:30 Travaux pratiques Orchids Philippe Esling & Grégoire Lorieux (Ircam)
12:30-14:00 Buffet
14:30-15:30 Travaux pratiques Spat Eric Daubresse (Ircam)
16:00-16:30 Pause
16:30-18:00 Travaux pratiques Max (débutants) Emmanuel Jourdan (Ircam)

Time Title Speaker(s)
10:00-11:00 Hands-pn gen~ -> code export Emmanuel Jourdan, Joshua Kit Clayton (Cycling ’74)
11:00-11:30 Pause
11:30-12:30 Travaux pratiques Raspberry PI & PureData Katja Vetter
12:30-14:00 Buffet
14:00-16:00 Symposium utilisateurs Antescofo Mutant Team & invités (Javier Munoz, Christian Philipp Pfeiffer)
16:00-16:30 Pause
16:30-18:00 L’Intrumentarium augmenté Unité projet SmartIntruments
18:00-18:30 Démo Hamelin Bernard Szajner (composer)


Jeudi 26 novembre

Jeudi 26 novembre

Sessions parallèles – à l’Ircam

Horaire Sujet Intervenant(s)
10:00-12:30 Table ronde “Nouveautés des Produits Technologiques” en présence d’Ableton, Flux::, Juce, Roli, IanniX Animée par Frédérick Rousseau (Ircam), Maria Gkotzampougiouk (Ableton), Jean Lochard (Ircam), Gael Martinet (Flux::), Jean Baptiste Thiebaut, Dave Manon (Roli), Guillaume Jacquemin, Thierry Coduys (Iannix)
12:30-14:30 Buffet avec Posters étudiants
14:30-15:00
Jacques Rémus a commencé a développer le projet des Thermophones il y a huit ans en créant plusieurs installations et concerts avec des tuyaux utilisant le principe des “pyrophones”, basé sur l’effet Rijke.D’autres artistes ont créé des concerts ou installations à partir de ce principe, en utilisant des brûleurs au propane ou à l’hydrogène (Trimpin, Michel Moglia, …)En relation avec Steve Garret de Penn State University et avec plusieurs chercheurs travaillant dans des laboratoires français, Jacques Rémus a commencé à developper un instrumentarium avec des tuyaux chauffés par des résistances éléctriques. La production du son vient d’un effet thermoacoustique qui, en général, a été exploité dans des buts industriels très éloignés de la musique !La Thermoacoustique est une science jeune, à l’interface de diverses disciplines : mécanique des fluides, acoustique, transferts thermiques.Les sons produits par les Thermophones sont purs, profonds, puissants et très beaux, et sont à même d’inspirer des écritures musicales. Cependant il est nécessaire de maîtriser des paramètres techniques qui sont complexes pour en faire des instruments musicaux facilement utilisables.Une collaboration avec Diana Baltean-Carlès et d’autres chercheurs du Limsi-CNRS a été lancée par Jacques Rémus. Ils sont lauréats 2015 du programme Art et Science de la Diagonale de Saclay.Nous présenterons quelques uns des aspects musicaux des Thermophones et aussi l’utilisation de Max pour piloter les sons. » »
Jacques Rémus
15:00-15:30
“Balaenoptera”, pour clarinette basse, sons électroniques et électronique en temps réel est une œuvre créée à l’ISSM “P. Mascagni” à Livourne, le 26 mai 2015. Cette oeuvre a été inspirée par un incident réel: il y a des années, une baleine s’est échouée au sud de Livourne. Le matériel sonore est alors réalisé à partir des sons de baleine et de clarinette basse. Cette présentation se concentre principalement sur l’utilisation d’Open Music et de certaines de ses librairies (OM-Spat, OM-SuperVP, OM-Chant, OMChroma) pour générer et spatialiser les sons. Le tout a permis d’unifier les processus et matériaux, pour la partie à la fois instrumentale et électronique. Une description précise est aussi donnée sur certaines techniques formelles et de composition de Balaenoptera, du moins pour les caractéristiques intéressés à la Composition Algorithmique.
Fabio De Sanctis De Benedictis
15:30-16:00 Qu’est ce que Jamoma peut faire pour vous? Trond Lossius, Theo de la Hogue, Julien Rabin
16:00-16:30 Pause
16:30-17:00
Depuis sa précédente présentation au forum, il y a presque 10 ans, Logelloop a beaucoup grandi et en est maintenant à sa version 4.4. L’une des fonctionnalités que j’aimerais mettre en avant est la possibilité d’utiliser n’importe quel patch Max dans Logelloop sous la forme d’un insert. Comme Logelloop comporte nativement toutes les gestions d’entrées sorties, de connexions Midi, OSC, etc., et surtout, possède un très puissant système de script/macros, cela rend l’utilisation des patchs Max beaucoup plus aisée. On peut alors facilement commander des patchs et les faire interagir entre eux à l’aide de scripts dont le langage est aujourd’hui très évolué puisqu’il permet d’utiliser des variables, dévaluer des conditions, de faire des boucles, d’avoir des fonctions complexes, etc.
Philippe Ollivier
17:00-17:30
November est un projet de fonte – ou police de caractères – musicale démarré en 1999 et qui couvre une vaste période de la Renaissance jusqu’à la musique d’aujourd’hui. Après avoir donné un aperçu des symboles disponibles dans la nouvelle version 2.0, j’évoquerai des aspects peu connus de la typographie musicale, tels que les metadata, SmuFL (Standard Music Font Layout), ou encore la compatibilité avec les logiciels de notation musicale.
http://forumnet.ircam.fr/product/novemberfont/
Robert Piéchaud
18:00-19:00 Apéritif

Horaire Sujet Intervenant(s)
14:30-16:00 Travaux pratiques SuperVP dans Max Marco Liuni (Ircam)

Horaire Sujet Intervenant(s)
10:00-12:30 Travaux pratiques WebAudio Norbert Schnell & équipe ISMM
12:30-14:30 Buffet avec Posters étudiants
14:30-16:00
Faust est un langage de programmation fonctionnel synchrone spécialement conçu pour le traitement du signal et la synthèse de sons en temps réel. L’objectif de l’atelier est de proposer une initiation au langage Faust et à ses possibilités, notamment en relation avec les autres environnements (Android ou iOS) ou langages musicaux comme Max et Puredata. Les participants qui le souhaitent peuvent venir avec leur machine. L’objectif de l’atelier est de proposer une initiation douce à Faust et à ses différents outils, notamment FaustLive, un environnement de développement multi-plateformes intégrant un compilateur Faust à la volée. On verra en également comment exporter les programmes Faust vers les différentes plateformes. Les participants sont encouragés à venir avec leur machine en ayant préalablement installé FaustLive.
Yann Orlarey (Grame)
16:00-16:30 Break
16:30-17:00
Lors de l’écoute simultanée de deux fréquences pures particulières, des produits de distortion non-linéaires apparaissent sur la membrane basilaire de la cochlée et entraînent la perception de fréquences non présentes dans l’espace acoustique. Les différences fréquentielles cubique et quadratique permettent au compositeur de planifier l’apparition de produits de distortion aux fréquences 2f1-f2 et f2-f1. Cette démonstration présentera une variété de techniques pour générer des produits de distortion, ainsi que certains concepts de spatialisation, la mécanique de l’audition, et l’attention à porter à l’incorporation des produits de distortion dans la musique.
Alex Chechile (CCRMA, L’Université de Stanford)
17:00-17:30
i-score est un séquenceur intermedia open source pour l’écriture de scénarios interactifs. Il est destiné au contrôle de multiples applications (Max, PD, Live, Modul8…) via le réseau, notamment grâce au protocole OSC.
Développé dans le cadre du projet OSSIA financé par l’ANR, la version 1.0-bêta d’i-score propose un formalisme graphique d’écriture de relations temporelles et conditionnelles fines entre des évènements pouvant être déclenchés de manière interactive. L’édition et l’exécution de multiples strates de temps indépendantes offrent une gestion inédite des automations de paramètres assistée par des outils d’interpolation entre états ou en dessinant avec précision ses propres courbes.
Etant le fruit d’un échange permanent entre scientifiques, ingénieurs et usagers, la présentation du logiciel s’articulera autour de problématiques d’usages identifiées dans les développements de régies pour le spectacle vivant, d’installations muséographiques et autres dispositifs interactifs.
Théo.de.la.Hogue,.Jean..Michaël.Célérier,.Pierre.Cochard (GMEA Albi)
17:30-18:00
Notre application pour Mac et PC est un contrôleur MIDI mains-libres. Ecrite en MaxMSP, elle est conçue pour permettre de créer des ambiances sonores en utilisant le langage gestuel de création artistique, le Soundpainting. Walter Thompson, son concepteur, nous a formés à cette discipline, et suit personnellement l’évolution de ce projet. Notre objectif est de recréer de façon précise les possibilités de réponses sonores offertes par ce langage. Notre application communiquant avec un hôte VST, chacun est invité à réunir son propre orchestre virtuel, ce qui rend l’expérience de jeu modulable, notamment en terme de style. En substitution aux commandes clavier/souris, nous prévoyons d’utiliser une reconnaissance des gestes du Soundpainting. Cette partie étant en développement, nous utilisons pour le moment une reconnaissance vocale : l’utilisateur peut ainsi réaliser des signes et nommer leurs noms à haute voix, engendrant la réponse sonore correspondante, exécutée par l’orchestre virtuel.
Renaud Felix

Horaire Sujet Intervenant(s)
 14:30-16:00 Démonstration d’Ambisonic Frédérick Rousseau (Ircam)


Dernière mise à jour : 15 octobre 2015