IRCAM Forum Workshops – Santiago de Chile – Preliminary Program

VISUAL_FORUM_WORKSHOPS_002

 


If you wish to participate to the Workshops, register now.

Si desea participar, inscríbase ya.

Information which contain abstracts


If you wish to participate to the Workshops, take a look at the instruction page.

Si quería participar en los talleres, lea esta pagina.



English

English

Download the ForumProgram

Time Hall A1 Conferencial 1
8:30am:9:00am Registration
9am-9:30am IRCAM Forum Staff, Centro Gabriela Mistral, Pontificia Universidad Catolica de Chile, Universidad de Chile and Center for Mathematical Modeling 
Opening Ceremony
Program Presentation
9:30am:10am Jean LOCHARD (IRCAM)
From artistic discovery to artistic creativity and vice versa: IRCAM news
10:00am:10:30am Carlos AGON (IRCAM)
Presentation
Transformational approaches have a long tradition in formalized music analysis in the Americanas well as in the European tradition. This paradigm has become an autonomous field of study making use of more and more sophisticated mathematical tools, ranging from group theory to categorical methods. Within the transformational approach, Klumpenhouwer networks are prototypical examples of music-theoretical constructions providing a description of the inner structure of chords by focusing on the transformations. we summarized in this our proposition of a generalized framework of Klumpenhouwer Networks based on category theory.
10:30am-11am
11am-11:30am Break
11:30am:12pm Axel OSSES (CMM)
Listening the body : sound and tomography
12pm-12:30pm
12:30pm-1pm Jean-Louis GIAVITTO (IRCAM)
Presentation
The notion of space has often been summoned in musical theory to formalize the analysis of pieces and the terms “pitch space”, “rythmic space” or “compositinal space” abund in the musical litterature… While the spatial metaphor is a good support of the musical intuition and thus a useful pedagogical tool, it is also a heuristic that, from a technical point of view, has enabled the development of new computer tools to assist the composer in his creative processes.This presentation explores some spatial representations of musical notions arising from elementary concepts in algebraic topology. The initial idea is to represent simple musical objects (e. g. notes, chords or intervals) by elementary spatial domains, and their relations (e.g. co-occurrence or succession) by neighborhood relationships. The topological notions of incidence, path, boundary, obstruction, etc. are then used to explain and characterize the underlying musical structure. For example, a musical sequence can be represented as a path in a cellular complex materializing the structure of chords. The type of path reveals the musician’s compositional strategies. The application of geometric operations on trajectories leads to musical transformations of the initial piece. Etc.We will attempt to explain the “unreasonable effectiveness” of spatial representations in music by means of natural links between the organization of percepts and topological relations. In particular, it is possible to bridge the gap between the topological approach outlined here and the formal concept analysis developed in symbolic learning.
1pm-2pm Lunch – Posters
2pm-2:30pm Hector PARRA
Composition Masterclass: La plasticidad del gesto
Carlos AGON (IRCAM)
Presentation
Computer-aided composition systems enable composers to write programs to generate and transform musical scores. In this sense, constraint programming is appealing because of its declarative nature: the composer constrains the score and relies on a solver to automatically provide solutions. However, the existing constraint solvers often lack interactivity. To enables the composer to alter and to navigate in the solution space this aim, we propose spacetime programming, a paradigm based on lattices and synchronous process calculi.
2:30pm-3pm
3pm-3:30pm Jean-Louis GIAVITTO (IRCAM)
Presentation

The Antescofo system couples machine listening and a specific programming language for compositional and performative purposes. It allows real-time synchronization of human musicians with computers during live performance, especially in the context of mixed music (the live association of acoustic instruments played by human musicians and
electronic processes run on computers).During live performance, musicians interpret the score with precise and personal timing, where the score time (in beats) is evaluated into the
physical time (measurable in seconds). For the same score, different interpretations lead to different temporal deviations, and musician’s actual tempo can vary drastically from the nominal tempo marks. This phenomenon depends on the individual performers and the interpretative context. To be executed in a musical way, electronic processes should
follow the temporal deviations of the human performers.Achieving this goal starts by score following, a task defined as real-time automatic alignment of the performance (usually through its audio stream) on the music score. However, score following is only the first step toward musician-computer interaction; it enables such interactions but does not give any insight on the nature of the accompaniment and the way it is synchronized.Antescofo is built on the strong coupling of machine listening and a specific programming language for compositional and performative
purposes:- The Listening module of Antescofo software infers the variability of the performance, through score following and tempo detection algorithms.- And the Antescofo language. provides a generic expressive support for the design of complex musical scenarios between human musicians and computer mediums in real-time interactions. makes explicit the composer intentions on how computers and musicians are to perform together (for example should they play in a “call and response” manner, or should the musician takes the leads, etc.).This way, the programmer/composer describes the interactive scenario with an augmented score, where musical objects stand next to computer programs, specifying temporal organizations for their live coordination. During each performance, human musicians “implement” the instrumental part of the score, while the system evaluates the electronic part taking into account the information provided by the listening module.Content
——-
The presentation will focus on the Antescofo real-time programming language. This language is built on the synchrony hypothesis where atomic actions are instantaneous. Antescofo extends this approach with durative actions. This approach, and its benefits, will be compared to
others approaches in the field of mixed music and audio processing.In Antescofo, as in many modern languages, processes are first class values. This makes possibles to program complex temporal behaviors in a simple way, by composing parameterized processes. Beyond processes,
Antescofo actors are autonomous and parallel objects that respond to messages and that are used to implement parallel electronic voices. Temporal patterns can be used to enhance these actors to react to the occurrence arbitrary logical and temporal conditions.During this lecture, we will explain how Antescofo pushes the recognition/triggering paradigm which is actually preeminent in mixed
music, to the more musically expressive paradigm of synchronization, where “time-lines” are aligned and synchronized following performative and temporal constraints.Synchronization strategies are used to create specific time-line that are “aligned” with another time-line. Primitive time-lines include the performance of the musician on stage followed by the listening machine, but may also include any kind of external processes using a dedicated
API to inform the reactive engine of its specific passing of time.
This presentation will be “example-oriented” relying on actual use of Antescofo to implement several variation on Piano Phases (Steve Reich),
the Polyrhythmic machine (Yann Maresz) and the Totem (Marco Stroppa).
3:30pm-4pm Renzo FILINICH
Paper Presentation

“What is this face, less clear and clearer the pulse in the arm, less strong and stronger – given

or borrowed? Farther than the stars and closer than the eye … ” T. S. Elliot, Marina.

The Cholo Feeling reproduces moments of senses release captured in shots that can be stretched, ripped and fracturing over extensions of time. With the performer’s face in the foreground dictated in monumental size, the public is exposed to flashes of this physical / virtual interface. This approach allows an instrument that pursues intimacy and narrative, two aspects of computer live performance that are often difficult to achieve.

This action manifests itself in tensing the relations that arise through the transformation of the image and the sound in real time under the paradigm in the new media of communicating with one and the other, in the work the image is blurred and generates a no time between the image and representation, under that paradigm the performer charges a virtual reality state.

Inspired by the research of granular synthesis, the work is an exploration that utilizes the performance of audiovisual sampling. Taken from the drawing technique from the photograph of scan frames, the work reproduces several points in time simultaneously.
The Cholo Feeling seeks to explore and analyze the effect of this technology on the physical body and how the body influences the technology during the performance, especially in relation to the problem of (re)presenting the ‘unrepresentable’, ie, the sublime of the digital body. The sublime understood as tension between joy and pain – the pleasure of having a feeling of totality inseparable from the pain of not being able to present an object equal to this idea of totality. The spectators are not simply engaged in passive contemplation, but are called to do what, according to Kant, can not be done, to “present the non-representable” (1978, 119), to overcome what is possible for something else, to strive continuously for a judgment that can never be guaranteed.

Cholo is a term used in some Latin American countries as a term of national identity and generally refers to the mestizo population of indigenous and white traits, generally seen in America, which leaves out whites or creoles, blacks, mulattos, Asian and indigenous descendants. This mixture was very frequent in the states or provinces of Latin American countries, where the native population ended up being more of the third part of the population. Due to geographical differences in its use, it is possible that misinterpretations occur in speech; so it is important to know the context in which this term is used to attribute a meaning to it. In some countries it is used as a pejorative term.

4pm-4:15pm Break
4:15pm-4:45pm Jean LOCHARD (IRCAM)
Workshop
Najo Modular Interface offers easy access to many of the processing techniques developed at IRCAM without having to be an expert in Max. Its highly intuitive graphical interface makes it possible to assemble several audio modules and facilitates their control via external devices (e.g. MIDI, graphical tablet, joystick, etc.). The NMI interface makes it easy for users to put together synthesis modules, to read samples, and to carry out sound processing so that they can create all sorts of different sounds. NMI includes a mixing table that makes it possible to balance and spatialize the sound sources that are derived from the different modules.
During, this workshop, we will introduce NMI by exploring some synthesis technics and effects used in « Tentative de réalité » for cello and electronic from Hector Parra.
It is asked to the students to install Max 7.3 (www.cycling74.com) and NMI 2.3 on their laptop before the workshop.
Jaime ORTEGA (CMM)
Listening the mountains : waves and mining
4:45pm – 5:15pm
5:15pm-5:30pm Philippe ESLING (IRCAM)
Paper Presentation
Up until now, researches in artificial intelligence focused on a mathematico-logical approach (the ability of the computer to solve problems formalized as sets of objective and supervised goals). However, driven by recent revolutionary advances, artificial intelligence enters a new era, and should keep on being driven to constantly push back previously established limits.In a newly created team at IRCAM, we rather aim to understand creative intelligence, this peculiarity that fundamentally distinguishes human beings from other branches of the tree of life. In this endeavor, music offers an ideal environment to better understand the creative mechanisms of intelligence. Indeed, musical creativity combines challenging theoretical questions with cognitive problems that are hard to formalize. In particular, the notion of musical time is a primordial and inseparable component of music. Musical time naturally develops on multiple scales (ranging from the identity of a sound to the entire structure of a piece) requiring a finer analysis. On the other hand, music can be transmitted in a variety of forms, ranging from scores to recordings. Thus, an object with a unique semantic meaning can be represented by a multitude of means, which require understanding their interactions. Finally, musical creativity is mostly undergone without a formal goal, an ideal case to understand the creative mechanisms of learning. Hence, adressing these questions could give rise to a whole new category of creatively intelligent machines.These dazzling questions that live inherently in music are also found in a tremendous variety of research fields ranging from heart disease detection to environmental monitoring. Thus, by studying these theoretical questions through the prism of music, we can reach new generic mechanisms of learning that can radiate to several scientific domains. In this conference, we will discuss the latest advances in new models of learning directly targeting creative processes, unsupervised learning, multi-scale flexible time analysis and the discovery of variational spaces mixing data ranging from scores to recordings while analyzing our perception of these. We will demonstrate several state-of-art systems developed at IRCAM for sound synthesis, score generation and musical orchestration.
5:30pm-6pm

Time Hall A1 Conferencial 1
9:30am-10am José Miguel FERNANDEZ and Jean-Louis GIAVITTO (IRCAM)
Workshop: Antescofo
Hector PARRA
Composition Masterclass: La emoción de la ciencia
10am-10:30am
10:30am-11am
11am-11:30am Break
11:30am-12pm Benjamin LEVY (IRCAM)
Workshop: Omax
Hector PARRA
Composition Masterclass: Palabra y música
12pm:12:30pm
12:30am-1pm
1pm-2:30pm Lunch – Posters
2:30pm-3pm José Miguel FERNANDEZ (IRCAM)
Workshop
In this workshop José Miguel Fernandez will present mainly the programming language Antescofo for compositions that use instruments and electronics in real time.
Some examples of works done with this program will be shown. Interaction techniques such as score follower, audio analysis of instruments (onset detection, envelope follower, audio descriptors, etc.) and other types of interaction such as motion capture using sensors to control the synthesis and processing of sound in real time.

Those interested can come with their laptop (Mac) with the program MaxMSP (version 6 or 7) installed.

3pm-3:30pm
3:30pm-4pm Break 
4pm:4:30pm Carlos AGON (IRCAM)
Workshop
OpenMusic (OM) is a visual programming language providing a set of classes and libraries that make it a very convenient environment for music composition. Various classes implementing musical data / behavior are provided. They are associated with graphical editors and may be extended by the user to meet specific needs. Different representations of a musical process are handled, among which common notation, midi piano-roll, sound signal. High level in-time organisation of the music material is proposed through the concept of “maquette”
4:30pm:5pm
5pm-5:30pm Nicolas ESPINOZA y Bernardo GIRAUTA
Paper presentation
This lecture’s aim is to propose a reflection about the intersections between the concept of musical indeterminacy, politics, knowledge and the use of probabilistic algorithms in musical improvisation sessions. The indeterminacy, historically linked to the so-called American experimental music – artist John Cage being its greater representative – consists in leaving open certain aspects of a musical composition to the moment of performance. Free improvisation practices, by abandoning objective criteria of musical organization such as tonality and time signature, are related, in some ways, to the concept of indeterminacy. As John Cage states in many of his writings, indeterminacy greatest goal is to dismiss the author’s control over the final result of the artistic work. This aspect relates aesthetics and formal language problems directly to theories of knowledge and human consciousness.The authors of this artistic research use, in free improvisation sessions, a probabilistic algorithmic framework that maps movement measurements into real-time modifications of the sounds played by the musicians. Developed by one of the authors, the mapping code works through probability distributions creating non deterministic relations between the motion captured by the sensor and the sound. Formal descriptions about the algorithm and its implementation will be includedBy means of a non-human element intervention over the musical experience this algorithm may function as an indeterminacy radicalization device. Philosophers Gilles Deleuze, Félix Guattari and Ludwig Wittgenstein provide tools for the understanding of the political consequences involved in both, the unpredictability of the musical language’s mode of operation, and the introduction of decisions made by non-human elements in artistic productions in general.Observations:- This research has two authors, Nicolas Espinoza and Bernardo Girauta.- This lecture could include a performance.
5:30pm:6pm Leopoldo SOTO
Paper presentation
In the Plasma Physics and Nuclear Fusion Laboratory of the Chilean Nuclear Energy Commission, several technologies, design skills, and capabilities to develop instruments, have been implemented. These include: electromagnetism, pulsed power, lasers, holography, among others. Further than our scientific research activities, we have interacted with artist and professionals of other areas, as for example as consultants for the “Museo Interactivo Mirador” a science interactive museum in Chile. Moreover, plastic artists have been trained in optics and holography in our laboratory. This interaction has opened our mind to other fields and vision. In addition, we have worked together with actresses, actors, musicians and audiovisual artists in the development of scientific dissemination videos for the general public (YouTube CienciaEntretenida Channel). On the other hand, our experience, allows us to explore the use of Tesla coils for music reproduction and interpretation. In this case there is no mechanical membrane that produces the sound, it is the plasma (sparks and rays) produced in the air that generates the sound. This presentation will expose these experiences and their possible projections.

Time Hall A1 Conferencial 1
10am-10:30am Jean LOCHARD (IRCAM)
Workshop Spat
Spat (or Spatialisateur in French) is a real-time spatial audio processor that allows composers, sound artists, performers, and sound engineers to control the localization of sound sources in 3D auditory spaces. In addition, Spat provides a powerful reverberation engine that can be applied to real and virtual auditory spaces.The processor receives sounds from instrumental or synthetic sources, adds spatialization effects in real-time, and outputs signals for reproduction on an electroacoustic system (loudspeakers or headphones).During this short session, we will use the different Spat modules from the source to the headphone by assembling Spat objects in Max.
It is asked to the students to install Max 7.3 (www.cycling74.com) and the Ircam Spat package before the workshop.
Philippe ESLING (IRCAM)
Presentation 
Musical orchestration is the subtle art of writing musical pieces for orchestra, by combining the spectral properties specific to each instrument in order to achieve a particular sonic goal. For centuries up to this day, orchestration has been transmitted empirically and never a true scientific theory of orchestration has emerged, as the obstacles this analysis and formalization must surmount are tremendous. Indeed, this question puts forward one of the most complex, mysterious, and dazzling aspects of music, which is the use of timbre to shape musical structures in order to impart emotional impact. Timbre is the complex set of auditory qualities (usually refered as the sound colour) that distinguish sounds emanating from different instruments. Intuitively, an auditory object is defined by several properties, which evolve in time. Decades of simultaneous research in signal processing and timbre perception have provided evidences for a rational description of audio understanding. We address these questions by relying on both solid perceptual principles and experiments on known empirical orchestration examples, and developing novel learning and mining algorithms from multivariate time series that can cope with the various time scales that are inherent in musical perception. In this quest, we seek tools for the automatic creation of musical content, a better understanding of perceptual principles and higher-level cognitive functions of the auditory cortex, but also generic learning and analysis techniques for data mining of multivariate time series broadly applicable to other scientific research fields. In this context, the multivariate analysis of temporal processes is required to understand the inherent variability of timbre dimensions, and can be performed through multiobjective time series matching. This has led to implement and commercialize the first automatic orchestration system called Orchids, which allows transforming any sound into an orchestral score.
10:30am-11am
11am-11:30am Break
11:30am-12:00pm Andrés Ferrari (Universidad de Chile)
Presentation : El videojuego como marco para la creación de performances interdisciplinarias
Per BLOLAND
Demo
Per Bloland will present the Induction Connection within Modalys, created during his Artistic Research Residency, and his ongoing use of it in his compositions. He would further like to demonstrate the Electromagnetically-Prepared Piano (a device that causes piano strings to resonate via electromagnets), and discuss the development of its physical model (the Induction Connection).
12:00pm:12:30pm
12:30pm-1pm Javier JAIMOVICH, Francisca MORAND
Presentation
The Emovere Project started in 2014 with interests on sensoriality, physiology, consciousness and experience as fundamentals for interdisciplinary and artistic experimentation. This collaboration resulted in a first performance piece “Emovere” premiered in GAM in October 2015. We are currently working on “Self-Intersection”, a solo performance by a dancer, developed around themes of identity and self-image constructed by the subjective relationship of somatic processes, such as self-sensing while moving and vocalizing.This presentation will focus on the techniques and methodologies that we have developed to measure, process and interpret the physiological and inertial signals acquired from the dancers. We will discuss how we have used these features  to create different mappings schemes and sound objects that respond interactively in order to generate the sound environments of the performance pieces.website, 1st example, 2nd example
 Rodrigo CASTELLANOS
Demo
It is the demo of the “Macro Patch”, an application in continuous development to process acoustic signals, mainly of instruments of wind, voice and percussion. It was developed in Pure data and contains original and universal processes that are used for improvisation and the creation of works. The idea is to perform together with a guest musician a conceptual and practical presentation that allows to expose the creative reaches of this patch.
An example
1pm-2:30pm Lunch – Posters
2:30pm-3pm Jean LOCHARD (IRCAM)
Workshop
Modalys is IRCAM’s flagship physical model-based sound synthesis environment, used to create virtual instruments from elementary physical objects such as strings, plates, tubes, membranes, plectra, bows, or hammers.It is also possible to create objects with more complex shapes out of 3D meshes, or using measurements, and Modalys does all the hard computational work for you, bringing them to life and making them sound.By combining these various physical objects, astonishing, unique virtual instruments can then be shaped, and it is up to you to decide how to play them!After a short introduction about physical modelling, we will explore Modalys thru its two main interface : Modalisp will help us to understand the main principles involved in the creation of a virtual instrument in Modalys in a textual interface. We will see how to use Modalys in real time in Max thru simple examples.It is asked to the students to install Max 7.3 (www.cycling74.com) and the Modalys package before the workshop.
3pm-3:30pm
3:30pm-4pm
4pm-4:30pm Rodrigo F. CADIZ y Patricio DE LA CUADRA(Pontificia Universidad Catolica de Chile)
Presentation : Arcontinuo: the instrument of change
4:30pm-5pm
5pm-5:30pm Patricio DE LA CUADRA (Pontificia Universidad Catolica de Chile)
Presentation : The musical gesture: an interdisciplinary approach
5:30pm-6pm Rodrigo F. CADIZ (Pontificia Universidad Catolica de Chile)
Presentation : Data sonification : examples in medical imaging and auditory graphs

 

7:30pm CONCERT


Philippe MANOURY
Partita II for violon and electronics (17 minutes)

Héctor PARRA
I have come like a butterfly into the hall of human life for electronics (18 minutes)

Héctor PARRA
Cell 2 for flute, B-flat clarinet, percussion and piano (14 minutes)

José Miguel FERNANDEZ
Fond diffus electronics (17 minutes)

Rodrigo F. Cadiz
eQuena, for quena, arcontinuo and electronics (11 minutes)

Time Hall A1
10am-10:30am Benjamin LEVY and José Miguel FERNANDEZ (IRCAM)
Concert’s making off and computer music design at IRCAM
10:30am-11am
11am:11:30am Break
11:30am-12pm IRCAM’s researchers, composers, and partners 
Panel discussion and conclusion: Art/Science
12pm-12:30pm
12:30pm-1pm
1pm – 2:30pm Lunch – Posters

Last Update : September 11th, 2017


Spanish

Spanish

Descargar el programa del Forum

 Hora Hall A1 Conferencia 1
8:30am:9:00am INSCRIPCION
9am-9:30am Equipo del Forum IRCAM, Centro Gabriela Mistral, Pontificia Universidad Católica de Chile, Universidad de Chile y Centro de Modelamiento Matemático
Ceremonia de Apertura
Presentación del programa
9:30am:10am Jean LOCHARD (IRCAM)
Del descubrimiento artistico a la creatividad y vice versa : novedades IRCAM
10:00am:10:30am Carlos AGON (IRCAM)
Presentación 
Transformational approaches have a long tradition in formalized music analysis in the Americanas well as in the European tradition. This paradigm has become an autonomous field of study making use of more and more sophisticated mathematical tools, ranging from group theory to categorical methods. Within the transformational approach, Klumpenhouwer networks are prototypical examples of music-theoretical constructions providing a description of the inner structure of chords by focusing on the transformations. we summarized in this our proposition of a generalized framework of Klumpenhouwer Networks based on category theory.
10:30am-11am
11am-11:30am Pausa
11:30am:12pm Axel OSSES (CMM)
Listening the body : sound and tomography
12pm-12:30pm
12:30pm-1pm Jean-Louis GIAVITTO (IRCAM)
Presentación
La noción de espacio simbólico es frecuentemente utilizada de manera bastante vaga en teoría, análisis y composición musical, y podemos encontrar en la literatura términos como “espacio de alturas”, “espacio rítmico”, “espacio composicional”. Sin embargo, se pueden usar nociones topológicas para dar un soporte formal a la metáfora espacial. En lugar de cuestionar la relación entre geometría y percepción sensorial, estas construcciones tienen sobre todo un valor pedagógico y heurístico que puede interesar al compositor como elemento de sus procesos creativos.Veremos cómo representar espacialmente objetos musicales elementales (alturas o acordes) por piezas de espacio simple. Al unir estas piezas, construimos espacios, llamados complejos celulares, que se organizan en una relación de vecindad definida por una propiedad musical.Una frase musical se representa en un complejo por una trayectoria. Las nociones de incidencia, trayectoria, bordes, obstrucción, etc., pueden ser utilizadas para caracterizar esta trayectoria y revelar información sobre el estilo de la pieza y las estrategias de composición empleadas. La aplicación de operaciones geométricas sobre las trayectorias conduce a transformaciones en la obra musical inicial. El enfoque espacial ofrece aquí un enfoque que permite proponer nuevas clasificaciones y sugerir transformaciones que uno no habría pensado.Trataremos de explicar la “irrazonable eficacia” de estas representaciones espaciales en la música a través de un vínculo natural entre la organización de las percepciones y las relaciones topológicas. En particular, es posible relacionar el enfoque topológico aquí descrito y el enfoque del análisis de conceptos formales desarrollado en el aprendizaje automático.
1pm-2pm Almuerzo – Poster 
2pm-2:30pm Hector PARRA
Composición Masterclass: La plasticidad del gesto

  • Relaciones estructurales entre gesto visual y ritmo musical. De las tensiones colorimétricas a las tensiones rítmicas y armónicas. Trabajos y obras realizadas en el Ircam entre 2003 y 2006 (Strette, Time Fields 2 y 3, Quasikristall, l’Aube assaillie)
  • La captación del gesto instrumental y la arquitectura sonora en Tentatives de réalité (2007)

Carlos AGON (IRCAM)
Presentación
Computer-aided composition systems enable composers to write programs to generate and transform musical scores. In this sense, constraint programming is appealing because of its declarative nature: the composer constrains the score and relies on a solver to automatically provide solutions. However, the existing constraint solvers often lack interactivity. To enables the composer to alter and to navigate in the solution space this aim, we propose spacetime programming, a paradigm based on lattices and synchronous process calculi.
2:30pm-3pm
3pm-3:30pm Jean-Louis GIAVITTO (IRCAM)
Presentación

La informática musical plantea problemas difíciles en tiempo real: es necesario articular los flujos audio de bajo nivel correspondientes a modelos de tiempo periódicos, con eventos de control asincrónico de alto nivel. En este contexto, la interacción musical en tiempo real con músicos humanos plantea problemas aún más complejos: los eventos y las duraciones deben gestionarse en varios puntos de referencia temporales que sólo pueden coincidir aproximadamente, como el punto de referencia específico del instrumentista, el de la partitura y el del tiempo físico.Estas cuestiones están en el corazón del proyecto Antescofo. Antescofo reúne un módulo de escucha que sigue el juego de un instrumentista y lo ubica en una partitura con un módulo reactivo que permite programar y gestionar de una manera muy fina la temporalidad de las acciones electrónicas en con lo que ocurre en el escenario.La presentación ilustrará los modelos de tiempo en el trabajo en Antescofo y su acoplamiento (su sincronización), el enfoque utilizado para extraer el ritmo de los eventos musicales y su uso en la gestión de duraciones, así como la arquitectura de la máquina reactiva.Aprobado a través de numerosas obras de música mixta (J. Harvey, M.Stroppa, P. Manoury, P. Boulez …), el sistema Antescofo, inspirado por trabajos en lenguajes en tiempo real como Esterel, abre nuevas problemáticas de investigación al considerar explícitamente el humano y su temporalidad en la relación sistema / entorno. El abre también nuevas dimensiones creativas en los campos de la interacción musical y de la música mixta.
3:30pm-4pm Renzo FILINICH
Presentación

“The   Cholo   Feeling”
El   cuerpo   digital   transculturizado
Qué   es   este   rostro,   menos   claro   y   más   claro
El   pulso   en   el   brazo,   menos   fuerte   y   más   fuerte—
¿dado o prestado? más lejano que las estrellas y más cercano que el ojo… (Marina, T.S.   Eliot)

The Cholo Feeling es una instalación audiovisual para un cuerpo humano y una máquina artificialmente inteligente. Un rostro en primer plano, parcialmente humano y en parte máquina, está en el escenario. Es un conjunto amorfo de piel, músculos, hardware y software. Los sensores biofísicos conectados a los miembros del intérprete capturan datos corpóreos   y   estos      alimentan   a   la   máquina.

Gracias a un sofisticado conjunto de algoritmos, cada matriz del movimiento del rostro desencadena un juego sinestésico de sonido e imagen dirigido por la máquina. Las señales biológicas del cuerpo influyen en las elecciones de la máquina, pero no pueden controlar lo que hará. A su vez, la saturación auditiva y visual producida por la máquina influye en el movimiento del rostro, pero al mismo tiempo perturba su percepción y sus habilidades motoras. A pesar de estar íntimamente ligada al cuerpo humano, la máquina es autónoma y elige   por   sí   misma   cómo   responder   a   los   movimientos   del   intérprete.

La propuesta de obra e investigación para  The Cholo Feeling, reproduce momentos de agitación, ansiedad y serenidad, capturados en tomas que se pueden estirar, rasgar y fracturar a través de extensiones de tiempo en la imagen y el sonido. Con el rostro del performer en primer plano dictada de tamaño monumental, el público está expuesto a destellos   susceptibles   y   vulnerables    de   deconstrucciones   del   rostro   y   la   voz .

Esta acción tensiona las relaciones que surgen a través de la transformación de la imagen y la voz en tiempo real bajo el paradigma del nuevo medio como un ente modificador de la percepción estética (Weibel, 2006), en la obra la imagen se desdibuja y genera un no tiempo entre imagen y representación, bajo ese paradigma el performer cobra un estado de organismo abierto. Un organismo abierto puede generar, entonces, neguentropía1 (entropía negativa),   es   decir,   emergencia   creativa.

Inspirado por el trabajo de síntesis granular2, la obra es una exploración que utiliza la performance de muestreo audiovisual. Tomado desde la técnica del dibujo más inspiración desde la fotografía de frames de escaneo, la obra reproduce varios puntos en el tiempo de forma   simultánea.

4pm-4:15pm Pausa
4:15pm-4:45pm Jean LOCHARD (IRCAM)
Taller
La interfaz intuitiva de NMI v2 permite ensamblar fácilmente procesos de síntesis, lectura de muestras y procesamiento para producir todo tipo de sonidos sin conocer la programación en Max. NMI permite crear un mezclador para espacializar las diferentes fuentes de sonido.Durante este taller, discutiremos algunas técnicas de síntesis y tratamiento utilizadas en la pieza de Héctor Parra “Tentativas de Realidad” para cello y electrónica.Se pide a los participantes que instalen Max 7.3 (www.cycling74.com) y NMI 2.3 (GRATIS en forumnet.ircam.fr).
Jaime ORTEGA (CMM)
Presentacion : Listening the mountains : waves and mining
4:45pm – 5:15pm
5:15pm-5:30pm Philippe ESLING (IRCAM)
Presentación
Hasta ahora, la inteligencia artificial se centraba en el enfoque matemático-lógico (ordenadores capaces de resolver problemas formalizados como conjuntos objetivos y supervisados). Sin embargo, gracias a los nuevos revolucionarios avances, la inteligencia artificial entra en una nueva era, ampliando sus fronteras y sobrepasando sus antiguos límites.En el nuevo equipo del IRCAM buscamos entender la inteligencia creativa, rasgo fundamental que nos distingue del resto de ramas del árbol de la vida. En este sentido, la música ofrece un escenario ideal para un entendimiento mejor de los mecanismos creativos del intelecto.La creatividad musical combina estimulantes preguntas teóricas con problemas cognitivos difíciles de formalizar. En particular, la noción del tiempo musical, primordial e inseparable de la música. El tiempo musical se desarrolla de formal natural a diferentes niveles (desde la identidad de un sonido hasta la estructura de una obra) y requiere de un análisis detallado. Además, la música se transmite de distintas maneras, de partituras a grabaciones. Como consecuencia, un objeto con un significado semántico único puede ser representado de diversas maneras, lo que requiere un entendimiento de su interacción. Finalmente, la creatividad musical generalmente se desarrolla sin un objetivo formal, siendo un caso ideal para entender los mecanismos creativos del aprendizaje. Abordar estas preguntas podría dar lugar a toda una nueva categoría de máquinas creativas inteligentes.Todas estas deslumbrantes preguntas inherentes a la música también están presentes en gran variedad de campos de investigación, desde detección de enfermedades del corazón a la vigilancia del medio ambiente. Así, al estudiar estas cuestiones teóricas a través del prisma de la música, podemos llegar a nuevos mecanismos genéricos de aprendizaje que pueden propagarse a otros ámbitos científicos. En esta conferencia, discutiremos los últimos avances en modelos de aprendizaje de procesos creativos, aprendizaje sin supervisión, análisis de tiempo flexible a múltiples escalas y el descubrimiento de espacios variacionales resultado de la unión de distintas fuentes de información, de partituras a grabaciones pasando por la percepción musical. Así mismo, presentaremos varios sistemas de vanguardia desarrollados en IRCAM para la síntesis de sonido, generación de partitura y orquestación musical.
5:30pm-6pm

Hora Hall A1 Conferencial 1
9:30am-10am José Miguel FERNANDEZ y Jean-Louis GIAVITTO (IRCAM)
Taller: Antescofo
Hector PARRA
Composición Masterclass: La emoción de la ciencia

  • Paralelismos estructurales a gran escala, modelos extramusicales y arquitectura temporal. Música y física teórica. Hypermusic Prologue (2009), ópera sobre la 5ª dimensión y el modelo Randall-Sundrum con libreto de Lisa Randall.
  • Una exploración musical de los agujeros negros y de la física relativista: Caressant l’horizon (2011), InFALL (2011), Limite les rêves au-delà (2017).
  • Música y biología evolutiva. Ciertos modelos sobre el origen y la evolución de la vida en la Tierra (Genetic Takeover de Cairns-Smith) y la composición de Mineral Life y Early Life (2010). Análisis de Aracne, para cuarteto de cuerda (2015).
  • FREC 12 y 3 una experiencia de composición semi-improvisada.

10am-10:30am
10:30am-11am
11am-11:30am Pausa
11:30am-12pm Benjamin LEVY (IRCAM) 
Taller: Omax
Hector PARRA
Clase Magistral de Composición  Palabra y música

  • El trabajo electroacústico en el teatro musical Zangezi (2007), sobre un poema de Vélimir Khlebnikov.
  • Obras musicales inspiradas por la literatura de la escritora francesa Marie NDiaye: música orquestal, de cámara y dos obras escénicas: Moins qu’un souffle (2012), Te craindre en ton absence (2012-13) así como la ópera Das geopferte Leben (2013-14).
  • Composición para instrumentos de época y orquestas barrocas. Three Shakespeare Sonnets (2016).
  • La Ópera Wilde (2014-15) y el mundo literario de Händl Klaus. Trabajo escénico con Calixto Bieito.

12pm:12:30pm
12:30am-1pm
1pm-2:30pm Almuerzo – Poster
2:30pm-3pm José Miguel FERNANDEZ (IRCAM)
Taller

En este workshop se presentará principalmente el lenguaje de programación Antescofo y la escritura de la electrónica para composiciones que utilizan instrumentos y electrónica en tiempo real.
Se mostrarán algunos ejemplos de obras realizadas con éste programa. También se presentarán técnicas de interacción como el score follower (“seguidor de partitura”), análisis de audio de los instrumentos (onset detection, envelope follower, descriptores audio, …) y otros tipos de interacción como la captación gestual y el uso de sensores para controlar la síntesis y tratamientos del sonido en tiempo real.
Los interesados pueden venir con su laptop (Mac) con el programa MaxMSP (version 6 o 7) instalado.

3pm-3:30pm
3:30pm-4pm Pausa
4pm:4:30pm Carlos AGON (IRCAM)
Taller
OpenMusic (OM) is a visual programming language providing a set of classes and libraries that make it a very convenient environment for music composition. Various classes implementing musical data / behavior are provided. They are associated with graphical editors and may be extended by the user to meet specific needs. Different representations of a musical process are handled, among which common notation, midi piano-roll, sound signal. High level in-time organisation of the music material is proposed through the concept of “maquette”
4:30pm:5pm
5pm-5:30pm Nicolas ESPIONNA y Bernardo GIRAUTA
Presentación
Esta   conferencia   pretende   proponer   una   reflexión   sobre   las   intersecciones   entre   el   concepto   de indeterminación   musical,   la   política,   el   conocimiento   y   el   uso   de   algoritmos   probabilísticos   en   sesiones   de improvisación   musical.   La   indeterminación,   históricamente   vinculada   a   la   llamada   música   experimental norteamericana   -siendo   su   mayor   representante   el   artista   John   Cage-   consiste   en   dejar   abiertos   ciertos aspectos   de   la   composición   musical   al   momento   de   ejecución   de   la   pieza.   Las   prácticas   de   improvisación libre   están   relacionadas,   en   cierto   modo,   con   el   concepto   de   indeterminación   al   abandonar   criterios objetivos   de   organización   musical   como   la   tonalidad   y   compás.   Como   dice   John   Cage   en   muchos   de   sus escritos,   el   mayor   objetivo   de   la   indeterminación   es   rechazar   el   control   del   autor   sobre   el   resultado   final de   la   obra   artística.   Este   aspecto   relaciona   la   estética   y   los   problemas   formales   del   lenguaje   directamente con   las   teorías   del   conocimiento   y   la   conciencia   humana.Los   autores   de   este   concepto   usan,   en   sesiones   de   improvisación   libre,   plataformas   algorítmicas   que mapean   mediciones   de   movimiento   en   modificaciones   en   tiempo   real   de   los   sonidos   producidos   por   los músicos.   Desarrollado   por   uno   de   los   autores,   el   código   mapea   a   través   de   distribuciones   probabilísticas creando   relaciones   no   deterministas   entre   el   movimiento   capturado   por   el   sensor   y   el   sonido.Mediante   la   intervención   de   elementos   no   humanos   sobre   la   experiencia   musical   este   algoritmo   puede funcionar   como   un   dispositivo   de   radicalización   de   indeterminación.   Los   filósofos   Gilles   Deleuze,   Félix Guattari   y   Ludwig   Wittgenstein   proporcionan   herramientas   para   la   comprensión   de   las   consecuencias políticas   implicadas   en   ambos,   la   imprevisibilidad   del   modo   de   funcionamiento   del   lenguaje   musical   y   la introducción   de   decisiones   tomadas   por   elementos   no   humanos   en   las   producciones   artísticas   en general.
5:30pm:6pm Leopoldo SOTO
Presentación
En el Laboratorio de Plasmas y Fusión Nuclear de la Comisión Chilena de Energía Nuclear dominamos una serie tecnologías, capacidades de diseño y desarrollo de instrumentación para hacer ciencia. Estas incluyen: electromagnetismo, potencia pulsada, óptica, láseres y holografía, entre otras. Hemos interactuado con artistas y profesionales de otras disciplinas, por ejemplo, en asesorías para el Museo Interactivo Mirador. Así mismo, hemos recibido a artistas plásticos; ellos han aprendido óptica y holografía integrándola a su trabajo artístico, y nosotros hemos ampliado nuestra mirada del mundo. También hemos trabajado en conjunto con actrices, actores, músicos y artistas audiovisuales en el desarrollo de videos de divulgación científica (Canal Ciencia Entretenida YouTube). Por otro lado, nuestra experiencia nos permite explorar el uso de bobinas de Tesla para la reproducción e interpretación musical. En este caso no existe una membrana mecánica que produce el sonido, sino que es el plasma (rayos) producido en el aire el que genera el sonido. En esta presentación se expondrá estas experiencias y vivencias, y sus posibles proyecciones.

Hora Hall A1 Conferencia 1
10am-10:30am Jean LOCHARD (IRCAM)
Taller Spat
El Spatializer (comúnmente llamado Spat) es una herramienta dedicada al procesamiento en tiempo real de la espacialización del sonido. Permite a los artistas, diseñadores de sonido, ingenieros de sonido controlar la posición de fuentes de sonido en un entorno tridimensional: a partir de señales derivadas de fuentes instrumentales o sintéticas (electrónicas), Spat realiza efectos espaciales y entrega señales que alimentan un dispositivo electro-acústico (ya sea un conjunto de altavoces o audífonos).Durante esta breve introducción, estudiaremos los diferentes módulos del Spat, desde la fuente hasta los audífonos, pasando por la reverberación y ensamblando algunos objetos Max.Se pide a los participantes que instalen Max 7.3 (www.cycling74.com).
Philippe ESLING (IRCAM)
Presentació
La orquestación musical es el arte de combinar sutilmente las propiedades espectrales particulares de cada instrumento para lograr una pieza sonora única. Desde hace siglos, la orquestación ha sido transmitida únicamente empíricamente. Nunca ha surgido una teoría científica pues las dificultades en análisis y formalización a superar son muchas. Entre ellas, uno de los aspectos más complejos, misteriosos y deslumbrantes de la música: el uso del timbre, que da forma a las estructuras musicales y es central en el impacto emocional. El timbre es el complejo conjunto de cualidades auditivas (comúnmente conocido como el color del sonido) que nos permiten distinguir los sonidos de los diferentes instrumentos. Intuitivamente, un objeto auditivo se define por varias propiedades que evolucionan en el tiempo. Décadas de investigación en el análisis de señales y percepción de timbre han arrojado evidencias para una descripción racional de la comprensión sonora. Nos basándonos en sólidos principios de percepción y experimentos con ejemplos concretos de orquestaciones empíricas y desarrollamos nuevos algoritmos de aprendizaje a partir de series temporales multivariantes para hacer frente a diversas escalas de tiempo inherentes a la percepción musical. Buscamos crear herramientas para la creación automática de contenidos musicales, una mejor comprensión de los principios perceptivos y de las funciones cognitivas de alto nivel de la corteza auditiva, y el desarrollo de técnicas genéricas de aprendizaje y análisis para la extracción de datos de series temporales multivariantes ampliamente aplicables a otros investigación científica. En este contexto, el análisis multivariante de los procesos temporales es necesario para comprender la variabilidad inherente de las dimensiones del timbre. Este análisis se realiza mediante la coincidencia de series temporales multiobjetivas. Como resultado hemos implementado y comercializado Orquídeas, el primer sistema de orquestación automático, que permite transformar cualquier sonido en una partitura orquestal.
10:30am-11am
11am-11:30am Pausa
11:30am-12:00pm Andrés Ferrari (Universidad de Chile)
Presentación : El videojuego como marco para la creación de performances interdisciplinarias
Per BLOLAND
Demo
Per Bloland will present the Induction Connection within Modalys, created during his Artistic Research Residency, and his ongoing use of it in his compositions. He would further like to demonstrate the Electromagnetically-Prepared Piano (a device that causes piano strings to resonate via electromagnets), and discuss the development of its physical model (the Induction Connection).
12:00pm:12:30pm
12:30pm-1pm Javier JAIMOVICH, Francisca MORAND
Presentación

Proyecto Emovere comenzó en el año 2014 con intereses en la sensorialidad, fisiología, conciencia y experiencia como ejes fundamentales para la interdisciplinaridad y la exploración artística. Esta colaboración tuvo el estreno de su primera obra homónima, “Emovere”, en GAM durante octubre de 2015. Actualmente, estamos trabajando en el solo interactivo para un intérprete de danza, “Intersecciones Frágiles”, el que se desarrolla tomando los temas de identidad y auto-imagen, construidos a partir de la relación subjetiva con los procesos de autopercepción, exponiendo una corporalidad dinámica y presente en su sentir, pensar y actuar.

La ponencia abordará las técnicas y metodologías que hemos desarrollado para medir, procesar e interpretar las señales fisiológicas e inerciales de intérpretes de danza. Vamos a discutir cómo se han utilizado estos parámetros para crear diferentes esquemas de mapping  y objetos sonoros que responden de forma interactiva para generar los ambientes sonoros de ambas obras.

website, 1st example, 2nd example

 Rodrigo CASTELLANOS
Demo
Se trata de la presentación del “Macro Patch”,  una aplicación para procesar señales acústicas, principalmente de instrumentos de viento, voz y percusión. Fue desarrollado en Pure data y contiene procesos originales y convencionales que son empleados para improvisación y creación de obras. La idea consiste en realizar  junto a un músico invitado, una presentación sobre los alcances creativos de este patch en continuo desarrollo.Un ejemplo
1pm-2:30pm Almuerzo – Poster
2:30pm-3pm Jean LOCHARD (IRCAM)
Taller
Modalys es el entorno de síntesis por modelo físico del IRCAM para crear instrumentos virtuales a partir de objetos físicos “sencillos” como cadenas, placas, tubos, membranas, plectro, arcos o martillos y para hacerlos interactuar.También es posible construir objetos con formas más complejas mediante malla 3D o por el resultado de las medidas; Modalys entonces les da vida y calcula sus vibraciones sonoras.Durante este taller, exploraremos Modalys a través de dos interfaces: la interfaz textual en LISP permite entender los principales principios a respetar para crear un instrumento virtual. Veremos cómo utilizar Modalys en tiempo real en Max mediante el uso de ejemplos simples.Se pide a los participantes que instalen Max 7.3 (www.cycling74.com).
3pm-3:30pm
3:30pm-4pm
4pm-4:30pm Rodrigo F. CADIZ y Patricio DE LA CUADRA (Pontificia Universidad Católica de Chile)
Presentación : Arcontinuo : the instrument of change
4:30pm-5pm
5pm-5:30pm Patricio DE LA CUADRA (Pontificia Universidad Católica de Chile)
Presentación : The musical gesture : an interdisciplinary approach
5:30pm-6pm Rodrigo F. CADIZ (Pontificia Universidad Católica de Chile)
Presentación : Data sonification : examples in medical imaging and auditory graphs

 

7:30pm CONCIERTO


Philippe MANOURY
Partie II para violin y electrónica (17 minutos)

Hector PARRA
I have come like a butterfly into the hall of human life para electrónica (18 minutos)

Hector PARRA
Cell 2 para flauta, B-flat clarinete, percusión y piano (14 minutos)

José Miguel FERNANDEZ
Fond Diffus para electrónica (19 minutos)

Rodrigo F. CADIZ
eQuena para quena, arcontinuo y electronica en tiempo real. (11 minutos)

Hora Hall A1
10am-10:30am Benjamin LEVY y José Miguel FERNANDEZ (IRCAM)
Realización informatica (Computer Music Designer) en el IRCAM, presentación obras concierto
10:30am-11am
11am:11:30am Pausa
11:30am-12pm Investigadores del IRCAM, compositores y colaboradores 
Panel de discusión y cierre: Arte/Ciencia
12pm-12:30pm
12:30pm-1pm
1pm – 2:30pm Almuerzo – Poster 

Last Update : September 11th, 2017


Last Update : September 29th, 2017