#Artículos

La creación musical del mañana, por Sergi Jordà

02.11.16
Frankie Pizá

En un artículo anexo, Sergi Jordà, uno de los 4 integrantes que desarrollaron Reactable en la Universitat Pompeu Fabra y la presentaron al mundo en 2005, habla de como el proyecto ha conservado su espíritu y filosofía a pesar de mutar de un proyecto de investigación a una empresa de tecnología musical.

En la última pregunta de la entrevista, Jordà habla abiertamente sobre el futuro a corto y largo plazo de la instrumentación y la creación musical: desde los conceptos desarrollados en el siglo pasado y que aún seguimos explotando, hasta las aplicaciones que proyectarán la música que estamos pensando.

A pesar de las nuevas tecnologías y la mayor accesibilidad, parecemos estancados en instrumentos basados en modelos del pasado. ¿Cómo serán los instrumentos en un futuro a corto y largo plazo? Según tu Sergi o según Reactable…

Te respondo primero a título personal, como investigador que lleva trabajando en este sector desde mediados de los 80. Antes que nada, no creo que sea del todo cierto lo que comentas, aunque sí que es cierto que esta actual tendencia al mimetismo, a la réplica de “skins” de máquinas hardware de hace varias décadas, no rezuma demasiada originalidad. Pero me temo que esta pregunta ¡se merece una respuesta bien larga!

Para comenzar, trataría de ir un poco más hacía atrás, y te preguntaría ¿qué cambios realmente importantes has visto en los últimas dos décadas en el ámbito de la tecnología musical?

Diferentes personas responderemos sin duda de forma muy diferente a esta pregunta. Desde mi punto de vista, en las últimas dos décadas, sólo hemos visto 3 cambios absolutamente esenciales, y curiosamente, ¡todos tuvieron lugar en un plazo de 2-3 años, entre el 95 y el 97!

Internet cambió de una vez por todas, y hasta nueva orden, toda la industria musical.

El primero y sin duda el más obvio, fue la llegada (y posterior masificación) de Internet. Aunque estrictamente hablando, esto no aportó demasiado a la creación musical en sí misma, sí que lo hizo a la forma en que la música se comercializa y se consume.

Al mp3 y otros formatos de compresión que surgen también en este mismo momento, así como al protocolo P2P, con sus primeras encarnaciones en la forma de Napster y otros… (que lustro más brutal el 95-2000!), los pondría en este mismo saco, junto a Internet.

Los dos cambios tecnológicos restantes son mucho menos obvios, por el hecho de que fueron meramente cuantitativos. Los ordenadores, ya lo sabemos, tienden a ir cada vez más rápido, sin que esto suponga normalmente un cambio en nada (de hecho ya se encargan los fabricantes de sistemas operativos de ir contrarrestando el posible efecto de este aumento de potencia).

Lo que sucedió un día, allá por el 95, fue que los discos duros llegaron a tener la velocidad suficiente para grabar y reproducir audio en tiempo real. Primero una pista, después dos, etc. Un par de años después, otro incremento cualitativo tuvo también gran impacto en la creación musical: las CPUs fueron ya capaces de generar y procesar audio en tiempo real.

Para mí, es difícil sobreestimar el impacto que ha tenido la grabación y edición de audio a disco duro. No tanto porqué ha permitido que cualquiera pudiera hacer en casa sus maquetas multipistas (algo que ya se podía 15 años antes con los portaestudios de cassette), sino sobre todo, porqué convirtió en realidad universal lo que en los años 50s ya pregonaban los compositores de música concreta: la música es ante todo sonido, y cualquier sonido puede ser música.

En los años 50s…

Compositores como Pierre Schaeffer, cortaban y pegaban -usando un cutter y cinta adhesiva- cinta magnética con grabaciones de ferrocarriles o de perros ladrando. En el 95, cualquiera podía hacer esto también, pero ahora de una forma mucho más sencilla, precisa y reversible. Así pudo nacer por ejemplo, el drum’n’bass.

Así, la creación musical pasó a estar más emparentada con la pintura o la escultura (por el hecho de permitir manipular directamente la materia) que con la escritura. La música pudo dejar de ser “simbólica”, es decir de estar compuesta por una sucesión de símbolos regidos por códigos y reglas más o menos rígidos, para pasar a ser “matérica”.

La velocidad de las CPUs, que llegó unos meses después, complementa esta revolución. Que los ordenadores pudieran generar (sintetizar) y procesar sonido en tiempo real, tal vez pueda parecer a primera vista, un salto poco relevante.

De hecho, es cierto que desde principios de los 80s los sintetizadores y los multiefectos eran ya casi todos digitales. La novedad no está por lo tanto en la tecnología en sí, sino en quien tiene acceso a ella. En los 80s, solo los grandes fabricantes (japoneses en su mayoría) podían diseñar y comercializar sintes y multiefectos.

Pero de repente, en el 97, podía hacerlo ya cualquiera (que tuviera un poco de ganas y de conocimiento), desde su casa. De hecho, los lenguajes de programación de audio, como Max/MSP o Pure Data, también surgen ese mismo año, y ponen las cosas relativamente más fáciles.

Surgen los VSTs… que a diferencia de los sintes hardware fabricados por multinacionales, no tienen porqué ser ya mainstream o mayoritarios; pueden ser caprichosos y experimentales… ¡lo que quieran sus creadores! Y si con la edición de audio, decíamos que surgió el drum’n’bass, con la síntesis y el procesado por software, surge el glitch, y el IDM o el ambient se vuelven más experimentales.

En cualquier caso, incluso para los que no deseen experimentar, sí que estoy convencido que que estos 3 cambios (sobre todo los dos primeros), han llevado a la absoluta democratización de la creación musical. ¡Con la grabación y edición en disco duro y los plugins, cualquiera puede disponer en su casa de exactamente las mismas herramientas que los productores de Beyoncé o de Lady Gaga! Con Internet (aunque esto es más discutible), cualquiera puede disponer además de las herramientas necesarias para su posterior difusión y  comercialización.

¡Fin de la lección! ¿Y después qué? Desde mi modo de ver, más bien poco. Casi nada. 

Con el nuevo siglo, y con las posibilidades de generar música electrónica en vivo, surge también la necesidad de poder controlar en directo un montón de parámetros. Pero que quieres que te diga… ¡la verdad es que me deprime un poco que la gente siga pensando que eso de los botones/pushes y los potenciómetros/sliders es “lo más”! Probablemente sea lo más fácil y lo más obvio, pero no lo más rico o expresivo….

En estos últimos años, con las apps para iOS y Android, se ha repetido un poco lo que comentaba que sucedió a finales de los 90s con la síntesis y el procesado digital y los VSTs. Como que las apps son ahora, gracias a Audiobus y a otras tecnologías, perfectamente intercombinables entre sí, ya no es necesario que una app “lo haga todo”. Cada app puede pasar a ser muy particular y idiosincrática.

Leyendo, en el foro de Audiobus, lo que hacen los usuarios con ROTOR, como lo combinan con otras apps de formas que nosotros no podíamos haber imaginado… la verdad es que me da muy buen rollo. Si a esto le añades el multitouch y los acelerómetros que ya vienen “de fábrica”, creo sinceramente ¡que los smartphones y los tablets son los instrumentos del presente!

¿Y el futuro? ¿A corto plazo? ¿Y a largo plazo?

A muy corto plazo, creo que una de las líneas más importantes pasa por la inteligencia artificial. Aunque aquí también hay que ir con cuidado de no caer en simplezas. ¡Los ordenadores se han usado para componer música, casi desde que existen los ordenadores, desde finales de los 50s!

Ahora bien, a lo largo de estas últimas 5 décadas, estos experimentos han tendido a ser poco más que eso: experimentos por unos pocos, y para unos pocos. Ahora creo que está comenzando a cambiar.

Muchos DJs y productores usan herramientas como Mixed In Key para combinar sus tracks tonalmente. Pero sigue habiendo cierta reticencia, a mi modo de entender mal fundamentada, alrededor de conceptos como “creación” o “creatividad”.

Son muchos los que opinan que sin nos dejamos ayudar por las máquinas, pasaremos a ser menos creativos. Pero las máquinas siempre han estado para ayudarnos. La creatividad (cuando existe) está en las personas que usan esas máquinas. Para mí, la frontera entre un software que te ayuda a cuantizar unas notas o a que, cuando apliques un delay, éste vaya a tiempo, y otro software que te ayude a que tu linea de bajo o tu patrón de batería sean más ricos, variados o interesantes, es totalmente arbitraria.

Desde hace 3 años, Reactable Systems trabaja conjuntamente con el grupo de investigación del MTG y otras empresas del sector como Native Instruments, en un proyecto europeo, GiantSteps, en el cual investigamos en lo que podríamos denominar como “agentes expertos para EDM”.

En GiantSteps estamos creando sistemas de software que puedan ayudar o sugerir soluciones musicales que a lo mejor no éramos capaces de resolver o encontrar por nosotros mismos. Sistemas que pueden analizar “estilos” estadísticamente, el de nuestros artistas favoritos, pero incluso también el nuestro propio.

Sistemas que pueden sugerirnos como darle un poco más de “gracia” a este patrón de batería tan aburrido que tenemos… Que pueden hacerlo más sincopado o con un toque más “House”, más “Hip-hop” o más “Squarepusher”…  Que nos pueden ayudar a que nuestra linea de bajo encaje mágicamente con este patrón… ¡Que nos sugieran como enriquecer esta cadencia armónica tan sosa que tenemos, porque no tenemos ni p* idea de armonía!

Desde Reactable en breve esperamos ir sacando progresivamente herramientas de este tipo… Como apps, como añadidos a apps ya existentes (i.e. ROTOR), como plugins…

La inteligencia artificial es pues la primera línea importante, del futuro inmediato, ya casi presente. La segunda, es la computación física o “physiological computing”. Nuestros dispositivos saben cada vez más sobre nosotros. No sólo donde estamos, a quien vemos, o que queremos comprar, sino que comienzan a saber también como nos encontramos, física o emocionalmente…

También estamos estudiando esto: Reactable y el MTG, junto con otros centros de investigación en informática musical como el Ircam de París o la universidad de Goldsmith en Londres. Y este proyecto se llama RAPID-MIX. ¿Que productos van a salir de aquí? Esperamos sacar algo en breve, pero como es menos evidente que lo de los “agentes expertos”, de momento, me lo callaré ;).

¿Y el futuro a más largo plazo?

Una extensión del “Physiological computing” son las interfaces cerebro-ordenador (Brain-Computer Interfaces). Este tipo de noticias surgen a menudo en Internet o incluso en los telenoticias: “¡En la Universidad de Timbuktu han inventado un sistema que permite crear música con el pensamiento!”. Lo cierto es que todavía estamos bastante lejos de que esto sea una realidad.

¿Podremos algún idea “proyectar” al exterior la música que escuchamos en nuestra cabeza?

Estoy seguro de que sí, pero todavía falta bastante… Unas décadas, imagino…

Por el momento, podemos hacer algunos “apaños”. Como hacer que si estamos tristes, nuestro playlist “elija” una canción más nostálgica, o al revés, más animada, para que no caigamos en un bucle depresivo… O incluso que una canción (previamente “tuneada”) se adapte a nuestro estado de ánimo…

Con Sebastián Mealla, un doctorando que presentó su tesis en el 2015, también estuvimos investigando en este tema durante unos años.

Aquí podéis ver un video que hicimos en el 2009.