Del siglo de oro de Pericles a la síntesis digital de bajos recursos

Heidegger, agregando dramatismo filológico con mucha creatividad a lo que había ya dicho Nietzsche, sostenía que en la Antigua Grecia del siglo IV a.C., la techne había alcanzado un grado de desarrollo inusitado en relación a lo que todavía hoy, disimuladamente, secularmente, podría admitirse como lo bello (esta coincidencia en el valor ontológico del hacer lo animó a pseudosemidesnazificarse al proponer insólitamente un diálogo con el marxismo en su “Carta sobre el humanismo” de 1947). Nietzsche creía que la ciencia y la filosofía eran expresiones decadentes de una sociedad cuyo máximo prodigio fueron las artes, y más concretamente la tragedia. Por eso un poco precipitadamente hablamos de rupturas o vanguardias, ya que por entonces se llegó a vivir un ritmo tan acelerado de innovaciones y escándalos estéticos que explican la posición conservadora de Platón para la proyección de una transformación social (algo que era cosustancial a la disciplina espartana pero que el cristianismo tuvo que imponer con terror, de forma cada vez más alarmantemente comparable a las moralinas contemporáneas). La experimentación y discusión sobre los límites y el sentido de lo sonoro, felizmente, tiene lugar entre nosotros pero es – como diría Borges, según lo propio de la eternidad – una adivinanza lo mismo que una predicción.

La escuela pitagórica se imponía con su metafísica matemática y por eso no era sorprendente (y tampoco sorprende hoy) que muchos proclamados teóricos musicales no hablaran más que de fórmulas y geometrías, como si cualquier experiencia de la vida sensible fuera una posible excusa para realzar su ontología de magnitudes cuantitativas. Contra esta concepción escribió Aristóxeno de Tarento (354-300 a.C.) uno de los tratados más influyentes y a la vez ignorados de la conceptualización del lenguaje musical. Aristóxeno sostenía que la música era, ante todo, un fenómeno estético, sensorial, y que como fenómeno físico podía estudiarse matemáticamente pero su cualidad estaba principalmente determinada en la subjetividad que agrupaba las excitaciones del cuerpo en una unidad de sentido, en un discurso, en un acontecimiento temporal, sensual, que los pitagóricos transustanciaban al abstraer la experiencia concreta de la escucha.

Dicho esto tengo que advertir que, por cuestiones de interés práctico más que filosóficas, voy a referirme, irónicamente, a cuestiones pitagóricas más que estéticas de cómo encuentro satisfacción en el desarrollo de un lenguaje de improvisación porque consiste básicamente en la complejización de una función matemática. La poiesis inspirada y regulada de la evolución de esta función pertenece al campo de la escucha en un sentido profundo y, por lo tanto, exige un tratamiento filosófico que, por el momento, voy a suspender.

Hace casi veinte años que programo en Pure Data y muchos más de veinte desde que me enamoré de las computadoras en un vínculo lúdico y estético (lejos de las bases de datos que eran lo único monetizable por entonces). Antes de saber que ya existía un nombre para describir esta práctica específica, comencé con mi hermano a programar en vivo, mostrando el código de manera espontánea, como quien lanza una botella con un mensaje desde una isla desierta o viste una remera de su banda favorita esperando encontrar cómplices de su placer perdidos en el barroco y corroído paisaje urbano falto de experiencias, como diría Agamben.

Pure Data es un lenguaje modular de procesamiento de señales digitales en tiempo real, esto lo vuelve instintivo e inagotable en términos de síntesis pero también se me hacía extremadamente incómodo y engorroso improvisar. Conforme dirigía mi práctica más y más a la improvisación de código, buscaba la combinación más pequeña y sencilla de módulos-objetos que a la vez no fuera en detrimento de las posibilidades de procesamiento. Reducía cada vez más las conexiones y los esquemas hasta que una vez me puse una especie de consigna imposible: tengo que lograr hacer todo con un solo oscilador. Un día, hará dos o tres años – creo que fue saliendo de un CASo Abierto –, Hernán Kerlleñevich me sugirió que busque información sobre “bytebeat”.

Bytebeat es el nombre de una técnica de síntesis digital de bajos recursos, cuyo precursor describió sin más como “descubrimiento”. Aunque se activan algunas alarmas conceptuales al referirse a una fórmula como descubrimiento, cada vez me parece más simpática esta inocente caracterización. Porque los recursos para esta técnica están disponibles desde hace muchísimo tiempo (de hecho, la principal inspiración parece que fue una demo de Commodore VIC-20) y, sin embargo, no fue hasta que tuvimos procesadores tan exagerados, en relación a lo que es más que suficiente para hacer bytebeat, que finalmente alguien lo investigó y desarrolló más detalladamente.

Me gusta entender al bytebeat con ese destello estético que aparece en el ámbito de la ciencia: la elegancia. Se considera elegante a una fórmula que de la manera más simple y económica satisface los resultados más extensos y complejos. La técnica bytebeat consiste en escribir una función lógico-matemática, por lo general de escasos caracteres, con operaciones de bajo nivel, que tome como única variable el tiempo y mandar el resultado de esta operación “en crudo” al conversor analógico digital, la salida de audio. Para dar una idea, el código o “partitura” de una obra generativa de varios compases de extensión clásica del bytebeat es literalmente:

((t >> 10) & 42) * t

La variable “t” es tiempo, concretamente se trata de un contador regular, un número que incrementa rápidamente en intervalos de unidad equidistantes en el tiempo, una rampa o cronómetro. En una analogía válida podríamos decir que “t” es un LFO diente de sierra de mucha amplitud y nuestra fórmula es un wave-shapper de esa señal. En realidad, “t” es algo más cercano a un contador de samples. Podríamos hacer coincidir la rampa con el sample rate, la “resolución digital X”, o sea, +44100 por segundo. Entonces, el resultado en cada momento de nuestra función determina el valor de cada sample. Es decir, potencialmente se puede crear cualquier sonido dentro de las posibilidades de procesamiento digital. Sin embargo, para esto consideré necesario introducir una modificación en el algoritmo del bytebeat. ¿Por qué?

El bytebeat fue concebido de manera tal que cualquier resultado de la fórmula se escale, se mapee, a un número válido, a un valor existente dentro del espectro del bit depth, de la “resolución digital Y” del sonido. De esta manera no hay “error” posible en la fórmula, es decir, más allá de si produce un efecto deseado, ningún resultado excederá los límites de la señal sonora. Esto produce, además, un comportamiento que muchos no dudan en clasificar como fractal. Los “errores” de la función son reincorporados de alguna manera siempre a los valores posibles, generando simetrías (pido disculpas por la precariedad, reducción e imprecisión de mi lenguaje en estas cuestiones, habrán notado que al descartar un desarrollo filosófico opté por el camino más difícil para mí pero estos conocimientos me parecen demasiado valiosos como para no difundirlos). El problema es que al escalar todos los valores perdemos la posibilidad, por ejemplo, de manipular la amplitud de un modo sencillo. Veamos…

Suponiendo que estamos trabajando con una resolución de 8 bits (1 byte), el resultado de nuestra función será escalado mediante %255 a uno de los 256 valores posibles de amplitud (el 0 se cuenta). Si la función devuelve un número más grande o más pequeño, por ejemplo 260, el módulo (%) convierte al excedente en el valor final: 4. Pero supongamos que quiero generar una onda cuadrada t%2 y reducir su amplitud a la mitad multiplicando o dividiendo como (t%2)*0.5 o (t%2)/2, esto tendría otras consecuencias, no en la amplitud sino en la frecuencia. Lo que hice yo, entonces, fue quitar este mapeo a valores posibles y dejar únicamente un limitador, perdiendo esa natural fractalidad del bytebeat pero ganando en resolución, modelado y legibilidad. También es importante destacar que el objeto que en Pure Data permite procesar estas expresiones (expr~), también admite muchas más operaciones como, por ejemplo, funciones trigonométricas.

El sistema que armé, y en el que sigo trabajando constantemente, se llama Rampcode y gracias a la colaboración de Reo Matsumoto existe un paquete para utilizarlo con Atom editor. Recientemente incorporé la posibilidad de reemplazar la variable por otra (a la vez función de la primera), agregando una función en el medio. Así que, una vez que tengo algo sonando que me gusta o que tiene “momentos” que me gustan, puedo alterar su secuenciación y velocidad modificando la función anterior, obteniendo variaciones y “efectos”.

Rampa → Función (por defecto = Rampa) → Función

Para ver – y escuchar – más en detalle todas estas cuestiones dejo una selección de links un poco ecléctica, como este discurrir. Queda pendiente, para pronto o quizás nunca, un desarrollo más filosófico respecto de la experiencia estética, seguramente afirmando el plano de inmanencia del lenguaje, en un tono menos pitagórico, con las notas más bellas que me sean posibles.

https://greggman.com/downloads/examples/html5bytebeat/html5bytebeat.html

Un entorno de bytebeat online para jugar un poco.

http://pelulamu.net/ibniz/

En mi opinión, el mejor software de bytebeat.

http://viznut.fi/en/

El pionero del bytebeat y otras genialidades.

http://www.biblioteca.unlpam.edu.ar/pubpdf/circe/v4a09cotello.pdf

Un artículo de respetable academicidad que encontré en castellano sobre Aristóxeno (ver p.162).

https://github.com/gabochi/rampcode

El repositorio de Rampcode.

curso online

Nuevas líneas de acción comunitarias: capacitación

Ayer les comentamos las actividades que venimos realizando. Bueno.. Nos guardamos algunas cosas, porque todavía están un poco crudas y sería una verdadera imprudencia contarlas públicamente. Después pensamos que bue, que ya fue, que la imprudencia es valor y bla bla.. 🙂

Plataforma de capacitación virtual

Quienes participamos de RedPanal -y en el campo artístico en general- realizamos de forma permanente trabajos de capacitación. Tomamos y brindamos contenidos pedagógicos que nos abren nuevos horizontes creativos: electrónica, programación, estructuras musicales, grabación, técnica instrumental, por nombrar algunos ejemplos.

Podemos armar una plataforma comunitaria, para expandir estas prácticas? Cómo sería?

Disparamos un tweet preguntando a nuestra red quién maneja Moodle, porque creemos que puede ser una buena plataforma para realizar la experiencia. La respuesta fue muy motivadora, hay equiiiipo!

La lógica comunitaria de la plataforma

Para hacer sustentable el proyecto, estamos pensando en un esquema de cursos y talleres pagos, donde lxs docentes puedan cobrar sus horas de trabajo y la plataforma pueda cubrir los costos de funcionamiento. Revenue sharing, que le dicen. Economía colaborativa le decimos nosotrxs: una economía diferente, centrado en las necesidades de los actores concretos, social y solidaria, circular, sin usura ni intermediarios parasitarios.

Próximos pasos: prueba piloto

Primero lo primero! Vamos a testear que esta idea realmente funcione. En los próximos meses vamos a estar realizando una serie de talleres sobre diferentes temáticas para ver si tenemos público interesado y si técnicamente una plataforma virtual sirve para el perfil de contenido que queremos brindar. Desde ahí, vamos a ver cómo sigue..

Acción Sonora por la Identidad (ASI)

En el marco de un nuevo aniversario del golpe genocida de 1976 en la argentina, desde RedPanal elucubramos una acción -mínima pero esperamos bella- para aportar a la Memoria Colectiva.

Un nuevo aniversario donde, como siempre, volvemos a afirmar que no olvidaremos ni perdonaremos.

Que queremos Verdad y Justicia.

Que los 30.000 compañerxs detenidxs-desaparecidxs están presentes diciéndonos que resistir es vencer, que continuemos la lucha, que sigamos soñando.

En estan acción apuntamos a buscar a nuestrxs hermanxs nacidxs en cautiverio y robadxs bajo el tenebroso plan sistemático elucubrado por la junta militar. Porque ese crimen es todavía un hecho cotidiano. No solo pasó hace 40 años; está pasando todos los días, enfrente de nuestras narices. Así la cosa, queremos con esta Acción Sonora por la Identidad ayudar a buscarlos, a reencontrarnos.

Abuelas hace de forma permanente campañas por la identidad con este eje. Porque nos cruzamos con ellxs todo el tiempo, muchxs deben estar dudando de su identidad y tal vez todavía no saben qué hacer, adónde consultar, cómo ponerse en contacto. Nosotros proponemos una herramienta más en este sentido: un código QR que cualquiera puede compartir por WhatsApp o redes sociales; descargar y pegar en estaciones de tren, de bondi, plazas o baños de boliches. El código QR dispara un audio con esa información básica e imprescindible.

Ayudanos a encontrarlxs. Imprimí un código QR y ponelo donde quieras. Compartí la página de Facebook con la movida. Hacé lo que sientas. Todo suma.

24 de Marzo, día de la Memoria. Por una argentina con justicia, igualdad, memoria y mucho futuro!

Accion sonora por la identidad

Cruces

Paso un muy breve resumen de lo que charlamos ayer.
Surgieron dos líneas de acción para trabajar:
1) Hacer encuentros quincenales para creación y registro de obras. La dinámica que pensamos es sencilla y posiblemente muy potente. Generar espacios abiertos donde cada uno de los participantes propone un mínimo ejercicio sonoro para realizar colectivamente. De la escucha colectiva sacaremos las ideas que tienen mayor potencia y le iremos dando forma de obra para finalmente presentarla en vivo y grabarla.
Sería interesante usar RedPanal.org para ir tirando las consignas previamente al encuentro, no? Así también le damos a la plataforma un uso concreto que nos va a ir mostrando limitaciones, bugs, usabilidad a mejorar, etc. Creo que puede ser una buena sinergia para trabajar entre los que tenemos más perfil “musical” y los que vienen más del palo del código.
2) Darnos un marco de intercambio y debate sobre lo que hacemos. Cuestiones ideológicas, estéticas, técnicas, etc. Pensamos que lo mejor es en principio tener un sitio web donde volcar artículos que cada uno tenga o quiera escribir, que en otra instancia también pueda ser un encuentro presencial o algún formato impreso. Recuperar y darle entidad a este blog puede ser una forma sencilla y buena para probar(nos).

Sonidos mutantes

Descripción

Proyecto experimental de creación de música libre y colaborativa de base tecnológica.

Módulo audiovisual

Se crearán cortos audiovisuales que recuperen la historia de la música electrónica, electroacústica y experimental de la Argentina. El contenido estará centrado en autores referentes de las diversas líneas estético-compositiva determinadas, y complementariamente se mostrarán los centros de investigación, desarrollo y divulgación que existieron en la Argentina. Se realizarán entrevistas con músicos, docentes e investigadores que explicarán sus características técnicas. Finalmente se propondrán ejercicios compositivos para que realicen los que vean el video, para ser subidos a RedPanal y utilizados en el marco del presente proyecto. El material se difundirá a través del sitio y redes sociales.

Temas:
GRM (Pierre Schaeffer) y el estudio de Colonia (Stockhausen). Kagel, Belloq, música concreta y manipulación de cinta abierta. Kropfl, síntesis de sonido.
Laboratorio de fonología musical (Facultad de arquitectura, 1958), CLAEM (Instituto Di Tella, 1962), Centro de música experimental (Universidad Nacional de Córdoba, 1965), CICMAT (1971), Laboratorio de investigación y producción musical (Centro Cultural Recoleta (1982), TADMER (Universidad del Litoral, Rosario, 1985). Festivales de música electroacústica.

Módulo musical

El centro de gravedad del presente proyecto es la música y el sonido. La experimentación con música, sonido e interatividad puntualmente.
a. Repositorio colectivo
Se buscará la participación del público mediante la convocatoria a subir sonidos a la web (ver “Módulo audiovisual”). A tal fin se propone el uso de la plataforma RedPanal.org como comunidad colaborativa musical sin fines de lucro.
b. Music information retrieval
Todos los archivos de audio serán analizados mediante plugins de extracción de información del sonido. De tal forma se tendrán una serie de descriptores de cada uno, como pueden ser el espectro armónico, picos de nivel, tempo u otros que los compositores crean útiles.
c. Performance
Los descriptores hacen posible un uso artístico de la base de datos de audio siguiendo técnicas compositivas que sirven de marco a una improvisación colectiva con consigna. Se harán periódicamente performances modificando técnicas, dando lugar a nuevas obras. Se complementará la puesta en escena con músicos en vivo. El público podrá participar de la performance subiendo audios y haciendo búsquedas y comentarios en la plataforma RedPanal.

Módulo tecnológico

La orquesta de sonidos mutantes tiene un basamento fuertemente tecnológico. El uso de la tecnología en la obra no busca ser neutral, sino más bien poner en debate el rol de tecnología, su uso en el arte, sus potencialidades y limitaciones. La integralidad de la obra será realizada con herramientas de software libre, como forma de garantizar su apertura, la participación colectiva y la posibilidad de su replicación o adaptación a otros contextos.

Experimentación sonora en la UNQ

Los laboratorios de experimentación sonora surgieron como una forma de juntarnos gente de RedPanal y hacer música metiéndole mano a sonidos del sitio a través de técnicas y consignas comunes, de edición y procesamiento de audio. Los guían una lógica más compositiva que “técnica”. Es decir, nos interesa crear determinadas cosas estéticamente y vemos cómo hacerlo técnicamente. La técnica es complementaria, una herramienta a la orden de las ideas.
Y de ahí fueron creciendo, tomando otros caminos, nos invitaron de varios lados a replicarlos.
Hacer el laboratorio en una Universidad como la de Quilmes fue por muchas cosas un placer. El contexto de Jam Tec era inmejorable, la cantidad de charlas y talleres en las que daba participar alucinaba. Pero aparte, la UNQ es una cuna de la música experimental y electroacústica. Encima una Universidad gratuita, pública y libre. Un lujaaazo!

Experimentación sonora con Ernesto Speranza

Charlando con Ernesto nos comentaba que el taller estuvo muy bueno, y que lo que más le gustó fue poder compartir con otras personas la experiencia y poder aprender de otros workflow (formas de trabajo). Ernesto había entrado a la web una vez, que le pareció interesante como plataforma para conectar a las personas y trabajar en conjunto.
Los audios que podemos escuchar en su perfil, hechos a partir del laboratorio de sonido, los hizo solo, Nos comenta: “use 3 samples de RedPanal. A una bata funk que me gusto mucho el sonido, le baje el tempo y el tono masomenos 3 o 4 semitonos para conseguir un sonido más oscuro y profundo, algo asi como vinilo. Después una clave en 7/8 que recorte y dividí la señal en 2. A una la deje sin procesar y a la otra le fui alterando el pitch progresivamente, mandando además una señal a la izquierda y otra a la derecha con un poquito de reverb y delay para darle sabor.
También agarré una pista de piano y corté un pedacito chiquito, de 4 compases, pasándolo a midi con un sampler y volviéndolo a tocar con el teclado de la computadora. Por último, tienen un sample vocal que tenía por ahi. El piano tiene un low pass filter al principio que se va abriendo y se apaga cuando entra la bata.”
En general, en lo que respecta a la música, Ernesto no tiene idea en la cabeza definida, no piensa en algo puntual, sino que va probando cosas y viendo qué cosas se sienten mejor que otras.. Algo así como armar legos! 🙂
Cuando trabaja con samples si es un poco más estructurado, por lo menos teniendo en cuenta que las grabaciones no saturen, sumar siempre algún instrumento melódico y algo con que construir el groove. En este caso, los loops y samples de RedPanal ya tenían todo lo necesario y le transmitían algo, que le dio el pie para reinterpretar esos sentimiento.
Ernesto Speranza se lleva la cocarda del buen RedPanalero y aparte viene activando para seguir el laboratorio con algún formato online. O sea, tremendo crack!!

Siganlo en RedPanal a ver que fantasía sigue tirando: http://redpanal.org/u/ernestosperanza/

¿Qué es RedPanal?

RedPanal.org es una plataforma de creación sonora y musical interactiva. Creada en 2008, su principal objetivo es potenciar la colaboración entre músicos, artistas sonoros y otros terrícolas, con el fin de crear un ecosistema de producción cultural autogestivo y solidario.

Una pieza musical, sonora, usualmente posee diversas “capas” que al ser reproducidas sincronizadas, al unísono, nos dan el resultado final que escuchamos. En una canción, típicamente podemos escuchar una batería, un bajo, dos guitarras, un teclado y voces, por ejemplo. En RedPanal, los usuarios comparten de manera independiente los diversos tracks con los que trabajan. Así, una pista de bajo que tuvo un objetivo inicial puede ser retomada por otra persona, transformada, remixada, puesta en otro contexto sonoro, y así esa pista sirve para encadenar un proceso colectivo de creación interactiva. Lo mismo con un riff de guitarra, un ritmo de batería o una pista de voz. La tecnología digital ha permitido como nunca antes el remix artístico como paradigma estético y ético. RedPanal es una herramienta para fomentar esa lógica creativa.

Mirá, acá te lo explican Les Paul y Mary Ford:

Desde 2008, hemos crecido en usuarios tanto en cantidad como en lugares geográficos de pertenencia. El grupo inicial tuvo gente en Buenos Aires, Tierra del Fuego, Rosario, Córdoba y Chubut. Actualmente la plataforma se utiliza en numerosas provincias del país y también en otros países, donde es punta de lanza España, México y Colombia.
Para lograr todo esto, RedPanal funciona en base a un esquema organizacional abierto y voluntario, que busca generar herramientas autogestivas para los diferentes módulos necesarios para el desarrollo de la iniciativa.

Infraestructura comunitaria.
Los servidores del proyecto son garantizados por una alianza con Código Sur, organización que brinda infraestructura a servicios web como el nuestro, que utilicen software libre y garanticen la privacidad en el uso de datos.

Software libre.
Todo el código del proyecto está alojado en GitHub para fomentar la colaboración de diseñadores y programadores en el desarrollo del sitio.

Licencias libres para remixar a piacere!!

Todos los sonidos subidos a la plataforma son de libre utilización para fomentar el espíritu del remix, la experimentación sonora, el procesamiento delirante de sonido.

Periódicamente hacemos activaciones mutantes, performances experimentales con un ensamble de músicos zar-pa-do.

Ahí se ven y se escuchan este tipo de cosas:

Siempre es bueno sumar voluntades redpanaleras, por eso si te interesa participar activamente en este proyecto, no dudes en ponerte en contacto con nosotros a través de nuestra página de Facebook, nuestro Twitter o escribiendo a info(arroba)redpanal.org