Cruces

Paso un muy breve resumen de lo que charlamos ayer.
Surgieron dos líneas de acción para trabajar:
1) Hacer encuentros quincenales para creación y registro de obras. La dinámica que pensamos es sencilla y posiblemente muy potente. Generar espacios abiertos donde cada uno de los participantes propone un mínimo ejercicio sonoro para realizar colectivamente. De la escucha colectiva sacaremos las ideas que tienen mayor potencia y le iremos dando forma de obra para finalmente presentarla en vivo y grabarla.
Sería interesante usar RedPanal.org para ir tirando las consignas previamente al encuentro, no? Así también le damos a la plataforma un uso concreto que nos va a ir mostrando limitaciones, bugs, usabilidad a mejorar, etc. Creo que puede ser una buena sinergia para trabajar entre los que tenemos más perfil “musical” y los que vienen más del palo del código.
2) Darnos un marco de intercambio y debate sobre lo que hacemos. Cuestiones ideológicas, estéticas, técnicas, etc. Pensamos que lo mejor es en principio tener un sitio web donde volcar artículos que cada uno tenga o quiera escribir, que en otra instancia también pueda ser un encuentro presencial o algún formato impreso. Recuperar y darle entidad a este blog puede ser una forma sencilla y buena para probar(nos).

Sonidos Mutantes en Facebook

Un taller de armado de sintetizadores analógicos, uno de ruidismo acústico, charlas y presentaciones de libros sobre propiedad intelectual, películas que ponen sobre la lupa las nuevas tecnologías y sus usos, performances de artistas, obras sonoras de diferentes lugares del mundo hablando sobre cambio climático. En Sonidos Mutantes está pasando de todo. A veces tanto que se nos hace difícil ponernos a escribir un rato acá, en nuestro blog, siguiendo la vieja consigna de apagar el bombardeo mediático y hacer cosas viéndose la cara, pensando juntos, compartiendo.
Así la cosa, armamos una página en Facebook (si, si, la herramienta del enemigo, lo sabemos) y ahí hay mucha información fresquita de lo que va sucediendo. Venite, dale.

Página de Facebook de Sonidos Mutantes

Convocatoria a crear lo que todavía no fue creado

Somos muchos los que venimos haciendo cosas que se cruzan, se potencian y construyen nuevas relaciones que creemos la base de otra cosa. Otra cosa que hay que construir, que no sabemos del todo cómo queremos que sea, pero si sabemos como queremos que no sea.
Así la cosa, Sonidos Mutantes quiere ser un espacio donde muchas varias de esas voluntades se junten, debatan, se tiren de los pelos, se abracen y etceteras redundantes.
Por eso queremos convocar a quienes creen que por acá pueden pasar cosas buenas a ponerse en contacto y entrar a armar movidas.
A músicos y artistas sonoros en busca de nuevos lenguajes, nuevas de formas de comunicar sus ideas, sus valores, sus sonidos.
A investigadores de todo tipo. A los de perfil más social, que pueden aportar cosas como historia de la música electrónica, impacto de las TICs en la industria musical, economía de los músicos independientes. A los que investigan cosas vinculadas directamente con el sonido, como psicoacústica o física.
A comunidades que trabajen con formatos abiertos y distribuidos. Software y hardware libre, netlabels, laboratorios de producción sonora.
A desarrolladores de lenaguajes libres, desde Python hasta PureData, SuperCollider o tantos otros que no podríamos ni siquiera listar.
A activistas que pongan en debate cuestiones sensibles de la actualidad, como la privacidad, los datos personales, la privatización de bienes tangibles o intangibles.
A todo el que sienta que tiene que ser parte.

Sonidos Mutantes espacialmente

El espacio prioritario para el desarrollo del proyecto es el 1) Performático, que posee 10 parlantes, potencias y una mesa de mezcla para espacialización.
El espacio 2) residentes es un lugar para que los artistas que están trabajando puedan dejar equipamiento (laptops, efectos, controladores, etc).
Tanto la mesa principal del espacio performático como la de residentes tienen fondo y una tapa de acrílico con una bisagra para poder cerrarlo con candado. De esta forma tanto los equipamientos usados como el seteo específico quedan visibles.
El espacio 3) Laboratorio de experimentación sonora depende de conseguir algunas computadoras para armar el espacio. Se viene convocatoria de reciclado de material en desuso como forma de combatir la obsolecencia programada y el consumismo? 🙂
4) Notación es una instalación de 3 atriles con partituras contemporáneas que muestren como nuevos sonidos tienen nuevas formas de escritura.
El espacio 5) Taller de electrónica es un lugar para trabajar con circuitos, soldadores, componentes. Una serie de talleres y espacios colaborativos de trabajo van a ser realizados ahí (armado de sintes, efectos, circuit bending, usos de Arduino o Raspberry Pi, etc). Pronto más novedades!!

Sonidos mutantes

Descripción

Proyecto experimental de creación de música libre y colaborativa de base tecnológica.

Módulo audiovisual

Se crearán cortos audiovisuales que recuperen la historia de la música electrónica, electroacústica y experimental de la Argentina. El contenido estará centrado en autores referentes de las diversas líneas estético-compositiva determinadas, y complementariamente se mostrarán los centros de investigación, desarrollo y divulgación que existieron en la Argentina. Se realizarán entrevistas con músicos, docentes e investigadores que explicarán sus características técnicas. Finalmente se propondrán ejercicios compositivos para que realicen los que vean el video, para ser subidos a RedPanal y utilizados en el marco del presente proyecto. El material se difundirá a través del sitio y redes sociales.

Temas:
GRM (Pierre Schaeffer) y el estudio de Colonia (Stockhausen). Kagel, Belloq, música concreta y manipulación de cinta abierta. Kropfl, síntesis de sonido.
Laboratorio de fonología musical (Facultad de arquitectura, 1958), CLAEM (Instituto Di Tella, 1962), Centro de música experimental (Universidad Nacional de Córdoba, 1965), CICMAT (1971), Laboratorio de investigación y producción musical (Centro Cultural Recoleta (1982), TADMER (Universidad del Litoral, Rosario, 1985). Festivales de música electroacústica.

Módulo musical

El centro de gravedad del presente proyecto es la música y el sonido. La experimentación con música, sonido e interatividad puntualmente.
a. Repositorio colectivo
Se buscará la participación del público mediante la convocatoria a subir sonidos a la web (ver “Módulo audiovisual”). A tal fin se propone el uso de la plataforma RedPanal.org como comunidad colaborativa musical sin fines de lucro.
b. Music information retrieval
Todos los archivos de audio serán analizados mediante plugins de extracción de información del sonido. De tal forma se tendrán una serie de descriptores de cada uno, como pueden ser el espectro armónico, picos de nivel, tempo u otros que los compositores crean útiles.
c. Performance
Los descriptores hacen posible un uso artístico de la base de datos de audio siguiendo técnicas compositivas que sirven de marco a una improvisación colectiva con consigna. Se harán periódicamente performances modificando técnicas, dando lugar a nuevas obras. Se complementará la puesta en escena con músicos en vivo. El público podrá participar de la performance subiendo audios y haciendo búsquedas y comentarios en la plataforma RedPanal.

Módulo tecnológico

La orquesta de sonidos mutantes tiene un basamento fuertemente tecnológico. El uso de la tecnología en la obra no busca ser neutral, sino más bien poner en debate el rol de tecnología, su uso en el arte, sus potencialidades y limitaciones. La integralidad de la obra será realizada con herramientas de software libre, como forma de garantizar su apertura, la participación colectiva y la posibilidad de su replicación o adaptación a otros contextos.

Deconstruyendo un sinte en SuperCollider

Primero, voy a mostrar el código con un poco más de espacios en blanco para que se entienda un poco mejor:

SynthDef("anita",
{ Out.ar (0, Pan2.ar (FreeVerb.ar (LFTri.ar ([660,330]) * FsinOsc.ar (2), 0.3)) * LFSaw.ar ( [0.5, 0.5]) * LFSaw.ar ( [1.5, 1] ))}
).play

Voy a dejar la definición y utilidad de “SynthDef” para lo último, por una cuestión más que todo didáctica. Si nos fijamos, hay algo que se repite dentro de las llaves y es ese “.ar” luego de cada clase: Out.ar, Pan2.ar, FreeVerb.ar, etc.
Eso quiere decir que .ar realiza un procesamiento en todas las muestras de sonido, a diferencia de .kr, un método que controla el procesamiento reduciéndolo a 1/64 de las muestras de esos sonidos. Pueden leer más especificidades sobre estos métodos en esta sección de la documentación de SuperCollider.

Para empezar, utilizo la clase Out que sirve para especificar que vamos a escribir una señal como salida. A esa clase le agrego el .ar para que haga un procesamiento sobre el total de las muestras de esa señal que voy a escribir:

{ Out.ar

La señal es todo lo que está incluido dentro de los paréntesis que le siguen a esa primera clase. En realidad los únicos parámetros que le asigno a la señal Out son

  • 0,
  • Pan2.ar; y
  • dos tipos diferentes de LFSaw.ar, o sea:

(0, Pan2.ar (...) * LFSaw.ar (...) * LFSaw.ar ( ...))

Si separamos en términos, son solamente dos parámetros: un bus y un “channelsArray”. Con esto determino cuál parte del hardware quiero utilizar (bus) y luego una lista de canales con sus respectivos parámetros (channelsArray). En mi ejemplo estoy utilizando un array integrado por la función Pan2 que me permite hacer un paneo de igual poder de la onda triangular reverberada en 2 canales. Esa onda triangular (*LFTri.ar* con dos frecuencias audibles de 660 y 330) con reverberación (*FreeVerb.ar*) que afecta a un 30% de sonido crudo (ya que se establece dentro de un rango dry/wet entre 0 y 1), se aproxima a su vez a una sinusoide de 2Hz de frecuencia (*FsinOsc(2)*). Eso es lo que especifico en este fragmento:

(FreeVerb.ar(LFTri.ar([660,330])*FSinOsc.ar(2), 0.3)

De esta forma, la señal sobre la cual realizo el paneo luego se va aproximando a otras dos señales “diente de sierra” (*LFSaw*) a las cuales les especifiqué diferentes frecuencias (lo que está entre corchetes) y que son las que completan el array:

Pan2.ar (FreeVerb.ar (LFTri.ar ([660,330]) * FsinOsc.ar (2), 0.3)) * LFSaw.ar ( [0.5, 0.5]) * LFSaw.ar ( [1.5, 1] )

Añadiendo algunas cosas más que vamos a explicar el código queda así:

SynthDef("anita", { Out.ar(0, Pan2.ar(FreeVerb.ar(LFTri.ar([660,330])*FSinOsc.ar(2), 0.3))*LFSaw.ar([0.5, 0.5]) * LFSaw.ar([1.5, 1]))}).play

Viendo las ondas en ejes, quedan más o menos así (no pude hacer un gif para que aprecien el movimiento, perdón!):

alt_text

SynthDef toma todo lo que expliqué anteriormente como un tipo de sonido, el cual se representa como un nodo que utiliza ciertos métodos para cumplir una cierta especificidad, lo que permite apreciar este código de una manera más formal y reutilizable en otras implementaciones que piensen en características estructurales de la música. En este sentido utilizar el sinte “anita” como un tipo de sonido que puede formar parte dentro de conjuntos de sonidos con sus comportamientos puede resultar útil para quienes aprecian las posibilidades que ofrecen los sonidos dentro de estructuras musicales con sus complejidades, simplezas y formalidades.

Una sola cosa más: a la función FreeVerb se le pueden asignar más parámetros y eso es algo que descubrí justamente deconstruyendo mi sinte. Por eso me autoremixé y compartí esos resultados acá.

(Este posteo está absolutamente inspirado en el trabajo que hizo Schemawound en su blog , algo que me fue de mucha utilidad cuando empecé a experimentar con SuperCollider)

Experimentación sonora en la UNQ

Los laboratorios de experimentación sonora surgieron como una forma de juntarnos gente de RedPanal y hacer música metiéndole mano a sonidos del sitio a través de técnicas y consignas comunes, de edición y procesamiento de audio. Los guían una lógica más compositiva que “técnica”. Es decir, nos interesa crear determinadas cosas estéticamente y vemos cómo hacerlo técnicamente. La técnica es complementaria, una herramienta a la orden de las ideas.
Y de ahí fueron creciendo, tomando otros caminos, nos invitaron de varios lados a replicarlos.
Hacer el laboratorio en una Universidad como la de Quilmes fue por muchas cosas un placer. El contexto de Jam Tec era inmejorable, la cantidad de charlas y talleres en las que daba participar alucinaba. Pero aparte, la UNQ es una cuna de la música experimental y electroacústica. Encima una Universidad gratuita, pública y libre. Un lujaaazo!

Síntesis de sonido I

La síntesis de sonido, se sabe, es todo un mundo musical. Complejo y hermoso, diríamos.
Ayer le entramos. De a poco, pero sin respeto, como se debe.
Conectamos un controlador MIDI via USB a nuestra computadora y abrimos un plugin (instrumento virtual) emulador del histórico MiniMoog. Usamos el de Arturia, pero hay muchos y muy bueno. Acá les dejamos algunos gratuitos para que puedan descargar y probar.
Después de entender qué es un sintetizador y ver algunas diferencias entre ellos (instrumentos modulares, semimodulares y configuración fija / síntesis aditiva y sustractiva), utilizamos el Moog para entrarle a la síntesis de sonido por el hecho de ser un equipo que tiene resumidamente gran parte de lo que necesitamos saber. Puntualmente estuvimos viendo: osciladores, mixer, filtros, envolvente y glide.

A pesar de no todos tener un Minimoog o, en su defecto, un controlador MIDI para hacer las cosas más intuitivas e interesantes, estuvimos viendo cómo abrir en el editor de audio un canal de instrumento/MIDI y escribir en el Piano Roll lo que quisiesemos.
Esperamos los audios con las experimentaciones del caso!

Experimentación concreta I

En Ombú – Laboratorio de sonido estuvieron esta semana trabajando sobre técnicas de procesamiento de audio similares a las que originalmente la Musique Concrete lograba con manipulaciones de cintas, en las grabadoras de carretes abiertos. Algo así:

Matías Pascual, participante del taller, nos cuenta: “Empecé trabajando con la computadora sobre un audio de percusión que bajé de RedPanal. Sin querer grabé sobre una pista, por haber apretado el botón de rec sin haberme dado cuenta. Lo que quedó, sin embargo, me gustó, así que grabé una melodía de 4 notas e hice 3 tracks: uno con la melodía original repetida 10 veces, uno con la melodía estirada para que fuera 10 veces más larga, y el ultimo con la melodía comprimida para que fuera 10 veces más chica. Después le metí algunos efectos y grabé otra melodía diferente de 4 notas. Para que ésta última quedara del mismo tiempo tuve que acortarla un poco y copiarla 10 veces, al igual que las anteriores.”

El resultado puede escucharse acá. También pueden buscarlo en RedPanal como @Exterions

Ombú – Laboratorio de sonido

Esta semana comenzó “Ombú”, el taller de música y tecnología del colegio Pestalozzi.
En la primera juntada ya se pusieron las manos en la masa y se empezó a trabajar en experimentar con sonido.
Por un lado, se grabaron sonidos varios del colegio con un grabador portátil Zoom H4. En los audios se escucha la vida de los estudiantes y.. Como llovía! 😛
El H4 es un grabador con dos micrófonos condenser en X-Y que capturan estereofónicamente. Primer dato sobre micrófoneo, que después se profundizará con información sobre tipos de micrófonos (dinámicos, condenser, ribbon), polaridad y demases del ámbito de la grabación.
Pueden escuchar los resultados en “Sonidos Pestalozzi”.
A partir de Tucatuta, loop creado por Marcelo, uno de los participantes, se empezaron a ver técnicas básicas de edición y procesamiento de audio (splice, invertir sonido, time-stretch, cambio de pitch/tono, pan). Los audios pueden escucharse en “Muestras de procesamientos”.
Finalmente, se utilizó Tucatuta y sus derivados para armar tres remixes con características bien diferentes, como forma de ir empapándose en la lógica musical experimental.
Que sigan las ramas del Ombú creciendo y diversificándose!!