Découvrez la version bêta du nouveau site du Forum Ircam ⇢ https://beta.forum.ircam.fr

Ateliers du Forum Ircam Paris – Pré-programme 2017

Ircam et Centre Pompidou

du 15 au 17 mars 2017

Veuillez noter que ce programme peut être sujet à des ajouts ou modifications.

Abstracts disponibles

Suivez-nous sur @ircamforum ! #ircamforumworkshops
CONCERT IRCAM LIVE 2017 : Samedi 18 mars à 20h30, Centre Pompidou, Grande Salle
Cliquez ici pour plus d’informations.

Mercredi 15 mars 2017

Mercredi 15 mars 2017

Architecture et conception 3D

Dans l’après-midi les sessions sont parallèles – à l’Ircam et au Cinema 2 du Centre Pompidou 

Horaire Sujet Intervenant(s)
 9h00-9h30  Bienvenue / présentation du programme Greg Beller, Paola Palumbo (Ircam)
 9h30-9h45  Aperçu des recherches et développements de l’Ircam Hugues Vinet (Ircam, Directeur de R&D)
 9h45-10h15
Nous présentons panoramix, une station de travail polyvalente dédiée à la diffusion, au mixage et à la post-production de contenus spatialisés.
Conçue comme une console virtuelle, l’application permet de combiner les approches orientées objet, scène et canaux (« object-based, scene-based, channel-based »). Les flux audio sont mixés au sein d’une architecture de bus flexible et qui allie localisation spatiale et effet de réverbération. L’outil propose une large gamme de techniques de rendu (VBAP, HOA, binaural, etc.) et est contrôlable via le protocole OSC.panoramix_1-930x500
Olivier Warusfel, Thibaut Carpentier (Ircam, Equipe EAC )
 10h15-10h45
Version anglaise uniquement : We will show new additions to Max available for download via the Max Package Manager, featuring the BLOCKS package that integrates support for ROLI hardware and Miraweb, a new version of the Mira controller that works in any web browser and is built on top of an open source protocol called Xebra that can be used to interact with Max patchers over a network.
David Zicarelli & Joshua Clayton ( cycling ’74)
 10h45-11h00  Pause
 11h00-11h30

Version anglaise uniquement :
DAVID (Da Amazing Voice Inflection Device) is a free, real-time voice transformation tool able to “colour” any voice recording with an emotion that wasn’t intended by it’s speaker. DAVID was especially designed with the affective psychology and neuroscience community in mind, and aims to provide researchers with new ways to produce and control affective stimuli, both for offline listening and for real-time paradigms.
Jean-Julien Aucouturier, Marco Liuni (Ircam, Equipe CREAM)
 11h30-12h00
Nous allons présenter un panorama des projets réalisés sur les dernières années dans le cadre du projet CoSiMa – installations, concerts participatifs, ateliers et applications web. Ces projets sont fondés sur l’hypothèse commune que les auditeurs d’un concert ou les visiteurs d’une galerie (ou n’importe qui, n’importe où, n’importe quand) peuvent joindre spontanément les personnes autour d’eux pour créer du son et de la musique en utilisant leur téléphone. La présentation se terminera par une démonstration à laquelle nous inviteront le public à participer.http://cosima.ircam.fr/
Norbert Schnell, Benjamin Matuszewski (Equipe ISMM)
 12h00-12h30  Présentation du projet de Résidence Artistique : Proxemic Fields Lorenzo Bianchi Hoesch (compositeur en résidence à l”Ircam) et David Poirier-Quinot (Equipe ISMM)
 12h30-13h00  Machine Learning interactif distribué Frédéric Bevilacqua, Joseph Larralde (Equipe ISMM)
 13h00-15h00  Buffet /Posters étudiants/ Installations

Horaire Sujet Intervenant(s)
 15h00-16h30  Travaux pratiques : introduction à panoramix. Session spéciale pour les ingénieurs du son Thibaut Carpentier, Jérémie Henrot (Ircam)
 16h30-18h00  Travaux pratiques : Le son 3D sur mobile avec la plateforme web CoSiMa Xavier Boissarie (ORBE) et Norbert Schnell ( Ircam)
logo_site_2Cosima-logo

Horaire Sujet Intervenant(s)
 11h00-12h00  Travaux pratiques : Max Expert David Zicarelli,Joshua Clayton (Cycling ’74)
 15h00-16h30  Travaux pratiques : Modalys pour débutants Jean Lochard, Robert Piéchaud (Ircam)
 16h30-18h00  Travaux pratiques: OpenMusic pour débutants Karim Haddad (Ircam)

 

Horaire Sujet Intervenant(s)
 14h00-14h30  Présentation des posters étudiants Patricia Alessandrini (Goldsmiths University of London)
 14h30-17h00  Posters étudiants Lia Mice, Pawel Dziadur (Goldsmiths University of London),
Anna Terzaroli, (Conservatorio Santa Cecilia)

Joué est un contrôleur Midi expressif et modulaire qui réagit comme un véritable instrument. C’est un instrument innovant et évolutif simplifiant la pratique de la musique numérique et offrant aux débutants comme aux musiciens confirmés un degré d’expressivité et de spontanéité inédit.
Joué est constitué de bois et de métal et est équipé d’un capteur sensible à la pression sur lequel sont placés des modules magiques. Les modules tels que des touches de piano, des cordes de guitare, des pads de batterie ou des contrôles en 3 dimensions offrent un terrain de jeu infini pour les musiciens.
Les modules sont faits de silicone souple et élastique qui transmet chaque variation de pression au capteur. Grâce à cela, les musiciens peuvent utiliser des gestes naturels comme le vibrato, le bending, le finger drumming et la détection de grandes vélocités normalement réservés aux instruments traditionnels.joue

Plus d’informations sur notre site web : www.play-joue.com

Pascal Joguet

 

Horaire Sujet Intervenant(s)
 13h00-18h00
Dans ce scenario on reçoit des sons sur nos portables, en se branchant sur un réseau, comme un cadeau.
Avec des gestes très simples on peut échanger ces sons, les découvrir, les mélanger.
Une voix-off, très proche, au casque, nous guide vers une écoute très précise et très personnelle, à le découverte du son en relation avec les mouvements du téléphone. Nous sommes, à ce moment dans une phase très introvertie et intime, solitaire et concentrée.Le trajet que nous sommes portés à faire par la voix-off, nous amène vers un lieu où un important système d’enceintes est installé. Toujours à travers des gestes simples, nous sommes en mesure de faire passer le son du casque vers un système Ambisonic.
Nous mettons ainsi le son dans l’espace, et lui, le son, passe de façon linéaire de notre tete à un espace sociale.La Spatialisation du son est ici gérée par les portables, qui deviennent des sortes de manettes. L’écoute est donc ici communautaire et partagée, mais une partie reste intime car la voix – off continue d’être diffusée dans le casque.
S’installe donc une écoute hybride entre le casque et le système de diffusion qui, à travers le son, fait coexister en même temps deux espaces sonores qui, dans notre quotidien, sont séparés et distincts : l’intime et le social.
lorenzo 2
Lorenzo Bianchi Hoesch (résidence en recherche artistique)

Horaire Sujet Intervenant(s)
 10h00-18h00
J’ai commencé il y a deux ans, à l’école d’arts appliqués du Mans, à faire des recherches sur les cloches et comment créer du son avec une forme, un corps sculptural.
J’ai conçu des sculptures métalliques avec une technique d’impression 3D combinée à un moulage de métal. J’étudie aujourd’hui la façon dont les anciennes fonderies concevaient les cloches, et je cherche une nouvelle méthode pour fabriquer facilement un prototype de « pièce coulée » avec de nouvelles technologies et matériaux. L’harmonie et la qualité du son sont aussi une question de complexité des proportions de la forme du matériau.
Aujourd’hui, l’impression 3D donne la possibilité d’avoir une forme parfaite tant au niveau les proportions que des mesures. Je travaille essentiellement avec un plug-in Grasshopper pour du dessin paramétrique en 3D permettant de créer des formes sonores complexes et optimisées.
Il sera peut-être possible à l’avenir de combiner les logiciels 3D avec le logiciel Ircam Modalys (par exemple) afin de prédire quelle sorte de son je pourrais imprimer et modeler.
benoit villemont
 Benoit Villemont 

Horaire Sujet Intervenant(s)
 10h00-18h00
Ce projet consiste à rendre sonore une vidéo muette via des objets acoustiques disposés directement dans l’es- pace de projection. Ces machines sonores constituent, comme un orchestre, la bande son du film.
Chacun des plans vidéo est ainsi sonorisé à la manière des bruiteurs, mais le bruitage est ici automatisé : une fois activée, l’installation ne nécessite plus d’intervention humaine, elle se trouve ainsi au croisement des mondes cinématographique, sonore et sculptural.
Les images projetées sont des plans plus ou moins figuratifs filmés dans des lieux de productions industrielles : l’imprime- rie Firmin Didot et l’imprimerie Soregraph.
tanguy clerc nb
Tanguy Clerc 

Horaire Sujet Intervenant(s)
 15h00-18h00 VERTIGO
Table ronde : introduction
Animation : Frédéric Migayrou (Mnam/Cci-Centre Pompidou)
Gilles Retsin,Manuel Jimenez Garcia, Jenny Sabin, Philippe Morel, Joris Laarman
 18h30 Rencontre : Musique et architecture
Animation : Frank Madlener (Directeur Ircam), Frédéric Migayrou (Mnam/Cci-Centre Pompidou)
Olga Neuwirth, Greg Lynn

Centre Pompidou, Grande Salle

 20h30  Le sec et l’humide – Guy Cassiers

Jeudi 16 mars 2017

Jeudi 16 mars 2017

Simulation et réalité virtuelle

Abstracts disponibles

 

Sessions parallèles – à l’Ircam et au Centre Pompidou 

Horaire Sujet Intervenant(s)
 9h30-10h00
Version anglaise uniquement : Leap motion is an affordable and easy to use tool to track the motions of the user’s hands. It is widely used to control musical software. Mostly it’s being used for live performances e.g. to perform filtersweeps or to alter the volume of a certain audio-track or instrument just with the movement of the hand(s). While you find an increasing number of applications for music performances there are only few examples of how a motion tracking device like Leap motion can support music composers in the process of creating new sounds. This poster presentation (accompanied by an early-stage prototype developed in Chuck1 ) shows ways how Leap motion can be mapped to 10 or more parameters of a synthesizer at the same time for users searching for inspiration. This project especially focusses on supporting divergent thinking processes which are used to generate new ideas by trying out many possible solutions and exploring a wide field of options. One of the simplest solutions to support divergent thinking processes in sound exploration is the ‘random button’ which sets all parameters of a synthesizer to random values. This can be a simple and yet effective solution but leaves a lot to chance. Instead of letting a button randomly decide on a configuration of all your synthesizer parameters: What if every possible sound of your synthesizer would be located somewhere on an imaginary 1x1x1 meter cube right in front of you on your desk? What if you could explore the entire soundscape by moving your hand through this cube?
Richard Albert Bretschneider
 10h00-10h30
« Orchestra of Speeh » est un projet artistique développé dans le cadre d’un programme de recherche artistique à la Norwegian University of Science and Technology. Le but artistique du projet est d’explorer l’utilisation de la parole comme matériel musical pour l’improvisation. Pour cela, un système qui peut s’assimiler à un « instrument » a été développé sur Max en utilisant un FTM/Gabor et MuBu librairies, produits sortis de l’Ircam. Ce système permet une « orchestration » en temps réel et une manipulation de la parole qui dérive de structures musicales telles que les rythmes, les mélodies, le tempo, les formants de voyelles, etc.
Les enregistrements de voix sont regroupés en corpus analysé qui permet une sélection basée sur les propriétés musicales. Cela inclue également un mode interactif qui utilise les modèles Markov pour générer de nouvelles séquences de segments de voix en réponse aux requêtes d’entrée audio live, tel une sorte de système de reconnaissance d’un discours dadaïste improvisé qui réagit uniquement à la prosodie.
L’installation de la performance inclue des transducteurs montés sur des instruments acoustiques et qui a récemment été utilisée dans plusieurs performances solo.daniel formo installation
Daniel Formo
 10h30-11h00
Vidéo de la performance ici.
gintas
Gintas Kraptavicius
 11h00-11h30  Pause
 11h30-12h00  Projets Ircam live
DSC_1309_ensemble3
Tarek Atoui
 12h00-12h30
Version anglaise uniquement : Tools for computer-aided composition such as OpenMusic and PWGL provide access to the Lisp layer they are based upon, and advanced operations have often proven being more easily implemented in Lisp than through a higher-level, graphical approach. Max provides several options for embedding in patches textual code written in various programming languages, but my perception is that these languages bindings are either too revealing of the low-level mechanisms underlying the Max environment, or suffer from their abstractness with respect to the actual Max data types and programming paradigm. The project I will show, which I am carrying out within Ircam’s Musical Research Residency program, consists in designing and implementing a simple, high-level, multi-paradigm, textual programming language able to manipulate directly the data types of bach. At the time of the presentation, the language will still be in its development phase, but I will be able to show its basic principles and
some working examples.
Andrea Agostini
 12h30-13h00
À mi-chemin entre sculptures et instruments de musique, les objets sonores conçus par Violeta Cruz présentent des nouveaux enjeux pour l’écriture musicale. Ils s’agit d’une série de machines mécaniques au comportement partiellement aléatoire, et dont le comportement sonore est prolongé par un dispositif électronique. Le dialogue entre ces objets et des instruments symphoniques donne lieu à des situations musicales et scéniques inusitées, et invite à réfléchir sur plusieurs domaines de la composition, tels que la notation musicale, la composition algorithmique et le geste instrumental.
Violeta Cruz
 13h00-13h15
Version anglaise uniquement : Prismes électriques – hommage à Sonia Delaunay is a tribute to the naturalized French artist Sonia Delaunay, co-author of the simultaneous contrast theory with her husband. This piece is a personal transposition into music of one of Delaunay’s paintings dated 1914: Prismes électriques. I used some pictures of this painting – mainly enlargements of details – thus obtaining short sound elements through an audio synthesis software which made it possible to create sounds from images with a noise shaping technique. The single fragments of sound were then put together and elaborated, overlapping them several times so as to create a dense sound textures in which the audio spectrum appears first decomposed and then reorganized so as to bring out each element by contrasting it with the next ones: a study within the theory of simultaneous contrast.
Antonio d’Amato
 13h15-15h00  Buffet/Posters étudiants/Installation

Horaire Sujet Intervenant(s)
 15h00-16h30  Ateliers pratiques : BITalino Hugo Silva (PLUX), Emmanuel Fléty (Ircam)

Horaire Sujet Intervenant(s)
15h00-16h30

Traitement spectral dans Max : pfft~ et supervp
Contenu : ce hands-on présente des techniques de traitement du son basées sur une représentation temps-fréquence, en utilisant les outils offerts par le framework pfft~ de Max ainsi que la librairie IRCAM supervp.
Jean Lochard, Marco Liuni (Ircam)

Horaire Sujet Intervenant(s)
10h00-10h30
Version anglaise uniquement :
Mr. Chen Hongli is a sound artist. He experimented with live improvised sound art. He has continued to develop this approach in collaboration with numerous pioneering artists both in China and abroad, and it has since become his calling card, with performances at the Guggenheim Museum in New York, the Kunsten Festival Desarts in Brussels, Centre Pompidou in Paris as well as Institute Of Contemporary Arts in London. In chen Hongli’s work, sound art is not only a practice that has gradually shaped his works conceptually, but also a form of social intervention, a sociological method, and an experimental direction.
Guqin is an essential media of his “ sound art projects ”, and it is also the most substantial language tool for him. He tried several unprecedented and rebellious standing positions playing Guqin in search of multiple possibilities of the vocal expression, and this kind of subversive act of sound was a dialogue with Chinese traditional culture and philosophy, even it was completely out of the traditional and cultural consciousness. It is absolutely not a performance; it is a direct, serious, and critical act of sound for the reflection on everything.
chen hongli
Chen Hongli
 10h30-11h00
Cette présentation propose d’explorer une démarche de composition assistée par ordinateur (CAO) axée sur l’élaboration de structures musicales au moyen d’une méthode de classification audio non supervisée et de certains algorithmes de parcours de graphe. Certaines parties de cette idée ont déjà été étudiées, notamment dans le cadre de la synthèse concaténative par corpus, de la reconnaissance des genres musicaux et de l’orchestration assistée par ordinateur pour en nommer quelques-unes, mais le défi reste de trouver une manière d’intégrer ces techniques informatiques dans le processus compositionnel, non pas pour générer du matériau sonore mais plutôt pour l’analyser, l’explorer et mieux le comprendre en préparation d’une œuvre musicale. Contrairement aux outils traditionnels de CAO, principalement axés sur des méthodes génératives, le suivant propose donc une approche analytique du matériau sonore axée sur l’élaboration de différents types de structures musicales afin d’informer et de stimuler le processus créatif. Plus concrètement, cette courte présentation consiste à révéler la structure algorithmique globale afin d’examiner la méthodologie, d’éclairer certaines problématiques inhérentes, d’exposer les limites d’une telle approche et finalement de discuter de quelques idées pour d’autres applications et développements possibles. Le tout sera d’abord soutenu par une démonstration de l’application en temps-différé puis par la démonstration d’une variation de la même application en temps-réel.
Frédéric Le Bel
 11h30-12h00  Antescofo 1.0 Jean-Louis Giavitto
 12h00-13h00  The Snail : visualiser le son Thomas Hélie, Charles Picasso (Ircam)
 13h00-18h00

Edward Lun, Lewis Kemmenoe, Jungwon Jung – Human Interaction Synthesizer

Ce projet est basé sur le concept de création de trois receveurs sensoriels : visuel, auditif et kinesthétique, et sur comment ils interagissent et se manifestent entre eux dans leur relation avec les mouvements du corps humain.

Cette installation est construite avec des multi-capteurs et où le participant peut se balader à travers différents domaines sensibles. Certaines fréquences ou extraits musicaux seront joués via des enceintes multi directionnelles, ce qui créera une expérience de sonorisation spatiale rendue possible grâce aux mouvements produits par le compositeur.

Ce procédé résultera de l’équilibre entre de ces deux éléments différents. La mise en place des capteurs sera faite de façon à suivre les mouvements qui nous permettent de passer d’un mouvement sonore à un mouvement visuel. Par conséquent, cela crée une fonction différente et une application qui intègre ces deux éléments et qui les illustre de manière reconstituée.

Derck Littel – Sound Sniffer

Suite à un collaboration avec le Royal College of Art de Londres, je propose de faire une performance musicale interactive ou une démonstration d’un instrument au nouveau design : le Sound Sniffer, un outil qui rend perceptibles des champs de haute fréquence électromagnétique que l’on peut trouver dans n’importe quelle source électronique (néons, ordinateurs, téléphones, systèmes d’alarme, etc.) En étudiant les possibilités de communication de ce système, le poster / la démo aura pour objectif de démonter :
– les possibilités interactives de l’outil en lien avec l’expérience vécue ;
– comment les nouvelles technologies peuvent provoquer une prise de conscience sur les problèmes de santé potentiels liés au son.
En novembre dernier, j’ai proposé cet instrument en avant-première lors de l’ouverture du nouveau musée du design de Londres. Voir l’enregistrement live ici :

Junhyeok Shin – Bridges

Version anglaise uniquement : For the mankind who living in this age, connection is one of the most significant communications for us to stepping forward. In terms of this subject, It can not be denied that ‘IRCAM’ is the important center of this platform. Through this creative interchange for the artists and researchers, people naturally participate in here to exploring the sound and technology. In this context, I realized that these extraordinary explorations have made
it possible for to find a densified bridge: between artists and researchers, between us and the public. On this idea, my poster will examine to visualize the ‘bridges’ which is densified between the gaps through all the communication on this platform. Many of these visualized ‘bridges’ are the symbol of creative and valuable exchanges for the artists and researchers who explore and work in contemporary times through this platform.
Also at the same time, In terms of the futural perspective of ‘IRCAM’, It represents the direction of the bridges to be explored.

Edward Lun, Lewis Kemmenoe, Jungwon Jung, Derck Littel, Junhyeok Shin,  (Royal College of Art)

Horaire Sujet Intervenant(s)
 10h-18h00
Dans ce scenario on reçoit des sons sur nos portables, en se branchant sur un réseau, comme un cadeau.
Avec des gestes très simples on peut échanger ces sons, les découvrir, les mélanger.
Une voix-off, très proche, au casque, nous guide vers une écoute très précise et très personnelle, à le découverte du son en relation avec les mouvements du téléphone. Nous sommes, à ce moment dans une phase très introvertie et intime, solitaire et concentrée.Le trajet que nous sommes portés à faire par la voix-off, nous amène vers un lieu où un important système d’enceintes est installé. Toujours à travers des gestes simples, nous sommes en mesure de faire passer le son du casque vers un système Ambisonic.
Nous mettons ainsi le son dans l’espace, et lui, le son, passe de façon linéaire de notre tete à un espace sociale.La Spatialisation du son est ici gérée par les portables, qui deviennent des sortes de manettes. L’écoute est donc ici communautaire et partagée, mais une partie reste intime car la voix – off continue d’être diffusée dans le casque.
S’installe donc une écoute hybride entre le casque et le système de diffusion qui, à travers le son, fait coexister en même temps deux espaces sonores qui, dans notre quotidien, sont séparés et distincts : l’intime et le social.
lorenzo 2
Lorenzo Bianchi Hoesch

Horaire Sujet Intervenant(s)
  10h00-18h00
J’ai commencé il y a deux ans, à l’école d’arts appliqués du Mans, à faire des recherches sur les cloches et comment créer du son avec une forme, un corps sculptural.
J’ai conçu des sculptures métalliques avec une technique d’impression 3D combinée à un moulage de métal. J’étudie aujourd’hui la façon dont les anciennes fonderies concevaient les cloches, et je cherche une nouvelle méthode pour fabriquer facilement un prototype de « pièce coulée » avec de nouvelles technologies et matériaux. L’harmonie et la qualité du son sont aussi une question de complexité des proportions de la forme du matériau.
Aujourd’hui, l’impression 3D donne la possibilité d’avoir une forme parfaite tant au niveau les proportions que des mesures. Je travaille essentiellement avec un plug-in Grasshopper pour du dessin paramétrique en 3D permettant de créer des formes sonores complexes et optimisées.
Il sera peut-être possible à l’avenir de combiner les logiciels 3D avec le logiciel Ircam Modalys (par exemple) afin de prédire quelle sorte de son je pourrais imprimer et modeler.
Benoit Villemont 

Horaire Sujet Intervenant(s)
  10h00-18h00
Ce projet consiste à rendre sonore une vidéo muette via des objets acoustiques disposés directement dans l’es- pace de projection. Ces machines sonores constituent, comme un orchestre, la bande son du film.
Chacun des plans vidéo est ainsi sonorisé à la manière des bruiteurs, mais le bruitage est ici automatisé : une fois activée, l’installation ne nécessite plus d’intervention humaine, elle se trouve ainsi au croisement des mondes cinématographique, sonore et sculptural.
Les images projetées sont des plans plus ou moins figuratifs filmés dans des lieux de productions industrielles : l’imprime- rie Firmin Didot et l’imprimerie Soregraph.
Tanguy Clerc

Horaire Sujet Intervenant(s)
15h00-18h00 Conférences Franck Varenne, Bruno Lévy, Gaël Seydoux, Frédéric Kaplan, Olivier Warusfel et Markus Noisterning, Thierry Coduys (IanniX) / Gaël Martinet (Flux)

Centre Pompidou, Grande Salle

 20h30 Le sec et l’humide – Guy Cassiers

 


Vendredi 17 mars 2017

Vendredi 17 mars 2017

Autour du design sonore, Makers & Design

Abstracts disponibles

 

Sessions parallèles – à l’Ircam et au Centre Pompidou 

Horaire Sujet Intervenant(s)
 10h00-11h00

Version anglaise uniquement :
The activity of sound design is setlled at Ircam since the 2000s and has been progressively developed in order to associate this polyvalent artistic discipline with scientific knowledge, methodologies and tools, especially from the auditory perception and cognition field of research. A new step of devlopment is about to come out and globally aims at considering sound design through the prism of design and science of design as defined by Cross: “the study of the principles, practices and procedures of [sound] design” (Cross, 2001) This past, present and future of sound design at Ircam will be presented and deeply illustrated with two fields of application: i/ in research, a presentation of the Skat-VG project dealing with concept and tools of sound sketches with the use of voice and gesture; ii/ in pedagogy, a presentation of the Sound Design Master cursus at ESBA TALM (School of Fine Arts, Le Mans) and especially the workshop methodology that is annually applied with a mixed group of designer / sound designer students and an industrial partner proposing a real use case.
Olivier Houix (Esba TALM site Le Mans, STMS Ircam-CNRS-UPMC), Nicolas Misdariis, Patrick Susini (Ircam)
 11h00-11h45
Version anglaise uniquement : Every sound has a social relation, but the development of new technological tools most often focusses on musical or sonic output. Software and hardware originally designed for music-making are constantly being adapted, hacked and reconfigured for other design contexts – such recontextualisations point to new ways of thinking about how sound design can impact on other disciplines.
With backgrounds in art, design and music, and interests that cross over into social, political, medical, computing and physical sciences, the Social Sound Research group at the School of Communication, Royal College of Art, London, is rethinking the potential of sound as a key area for contemporary communication design. This presentation explores how sound can be used to articulate, enhance and modulate our societies, examining how sound practice can effect and shape contemporary human experience and social interaction.
Drawing on examples ranging from identifying and protecting soundmarks, architectural practice, public announcements and public art, we demonstrate the need for more holistic approaches to sound in the public realm, informed by both social design, and sophisticated, engaging sonic results.
Matt Lewis, Cecilia Wee, Will Renel (Royal College of Art)
 11h45-12h00  Pause
 12h00-13h30  VERTIGO
Table-ronde : makers, design et économie collaborative
Sébastien Broca, Amélie Capon, Marie-Christine Bureau, Vincent Guimas
 13h30-15h00  Buffet /Posters étudiants
 15h00-16h30   VERTIGO
Conférences : nouvelles lutheries
Frédéric Bevilacqua, Emmanuel Fléty, Hugo Placido da Silva, Adrien Mamou-Mani, Pauline Eveno
 16h30-18h00  VERTIGO
Table-ronde : design
Animation : Marie-Ange Brayer
Nicolas Henchoz, François Brument, Sylvain Lebfèvre, Paola Antonelli, Marie-Ange Brayer
  18h30   VERTIGO
Rencontre : formes et mathématisation du monde
Animation : Moreno Andreatta
Alain Prochaintz, Alain Connes

Horaire Sujet Intervenant(s)
 15h00-15h30  Présentation : Cut-ups, Contexts and CataRT Glen Hall
 15h30-16h30  Ateliers pratiques : CataRT Diemo Schwarz (Ircam, ISMM)

Horaire Sujet Intervenant(s)
 10h00-12h00  Ateliers pratiques : introduction à Antescofo Grégoire Lorieux (Ircam, Pédagogie)

Horaire Sujet Intervenant(s)
 14h00-18h00

Anna Ridler – Speaking in Tongues

« Speaking in Tongues » fait partie d’un projet qui explore et tente de rendre visibles les différentes sortes d’informations exprimées par la voix humaine et comment l’apprentissage automatique peut interagir avec. En utilisant Max MSP et Google Cloud Speech API, ce projet analyse en temps réel les paroles de l’utilisateur et les classe selon une gamme de possibilités (par exemple le genre, le niveau d’éducation, l’adhésion à une norme linguistique standard) qui déclenche par la suite une vidéo. Mais dans la mesure où les voix ne sont pas statiques, il se peut que les utilisateurs se retrouvent soit hors champ de la vidéo selon la densité avec laquelle ils parlent dans le micro (le projet, qui fait écho au programme informatique élaboré par Joseph Weizenbaum, répète aux utilisateurs ce qu’ils viennent de dire sous forme de question à intervalles réguliers pour facilite l’utilisation) soit dans l’incapacité de changer de voix, « coincés » dans une seule vidéo.

Jen Haugan, Lara Poe – Sonifying Noise Pollution: The Silent Killer

“Sonifying Noise Pollution: The Silent Killer” est un projet où Max MSP est utilisé comme moyen de sonifier des données extraites des statistiques de pollution sonore causée par le transport routier.
Le transport routier est en effet une des causes principales de la pollution sonore dans les villes et ses répercutions sur la santé de l’homme sont très bien identifiées. Ce projet vise à mettre en avant l’étendue de cette pollution en Grande-Bretagne.
L’ensemble des données provient de l’Agence Européenne pour l’Environnement et se réfère au pourcentage de personnes exposées à un niveau sonore dangereux dû au trafic routier dense dans différentes villes de Grande-Bretagne. Chaque ville est associée à une couleur spécifique basée sur le nombre de personnes exposées à un niveau sonore supérieur à 65dB.
Cette carte d’indice couleur des villes de Grande-Bretagne a ensuite été chargée dans Max MSP, où la valeur de la couleur a été décomposée et où chaque couleur s’est vue assignée une fréquence spéciale.
Cette carte permet ensuite au public de cliquer sur ces villes afin d’explorer les différents niveaux sonores de celles-ci grâce au code couleur.

JenHaugan_NoisePollution01

Anna Ridler, Jen Haugan, Lara Poe (Royal College of Art)

Horaire Sujet Intervenant(s)
13h30-14h30

Chloé X Ircam v2 – The Dawn interactive mix (interactive mix) restitue / réinterprète / adapte / transforme la musique de Chloé en une expérience interactive utilisant des smartphones. Les joueurs créent collectivement leur propre mix à partir d’une composition de Chloé et en fonction de leur proximité et de leurs mouvements, explorant ainsi affinités musicales et personnelles.
Muni d’écouteurs, chaque joueur contrôle une seule piste du mix grâce à un filtre qui répond à l’inclinaison de son appareil. En se rapprochant d’autres joueurs, les sons de chacun se mélangent et se combinent en un nouveau mix.
En déambulant, le mix de chaque joueur évolue selon une trajectoire unique au travers des rencontres et des interactions.The Dawn est un extrait du 3eme et nouvel album de Chloé à paraitre en octobre 2017 sur Lumière Noire/!K7
Les technologies Web Audio utilisées dans cette performance sont développées dans le cadre des projets de recherche CoSiMa (Collaborative Situated Media) et Wave (Web Audio Visualisation and Editing) soutenus par l’Agence nationale de la recherche, et coordonnés par l’Ircam.

Norbert Schnell (Ircam)
 10h00-17h00
J’ai commencé il y a deux ans, à l’école d’arts appliqués du Mans, à faire des recherches sur les cloches et comment créer du son avec une forme, un corps sculptural.
J’ai conçu des sculptures métalliques avec une technique d’impression 3D combinée à un moulage de métal. J’étudie aujourd’hui la façon dont les anciennes fonderies concevaient les cloches, et je cherche une nouvelle méthode pour fabriquer facilement un prototype de « pièce coulée » avec de nouvelles technologies et matériaux. L’harmonie et la qualité du son sont aussi une question de complexité des proportions de la forme du matériau.
Aujourd’hui, l’impression 3D donne la possibilité d’avoir une forme parfaite tant au niveau les proportions que des mesures. Je travaille essentiellement avec un plug-in Grasshopper pour du dessin paramétrique en 3D permettant de créer des formes sonores complexes et optimisées.
Il sera peut-être possible à l’avenir de combiner les logiciels 3D avec le logiciel Ircam Modalys (par exemple) afin de prédire quelle sorte de son je pourrais imprimer et modeler.
benoit villemont
Benoit Villemont

Horaire Sujet Intervenant(s)
 10h00-17h00
Ce projet consiste à rendre sonore une vidéo muette via des objets acoustiques disposés directement dans l’es- pace de projection. Ces machines sonores constituent, comme un orchestre, la bande son du film.
Chacun des plans vidéo est ainsi sonorisé à la manière des bruiteurs, mais le bruitage est ici automatisé : une fois activée, l’installation ne nécessite plus d’intervention humaine, elle se trouve ainsi au croisement des mondes cinématographique, sonore et sculptural.
Les images projetées sont des plans plus ou moins figuratifs filmés dans des lieux de productions industrielles : l’imprime- rie Firmin Didot et l’imprimerie Soregraph.
tanguy clerc nb
Tanguy Clerc

Horaire Sujet Intervenant(s)
 17h30-18h00  Conclusions


Dernière mise à jour : 10 mars 2017