#Artículos

Cuando los músicos vendan sus propios algoritmos

07.11.16
Frankie Pizá

Las máquinas pueden aprender y cada vez pueden hacerlo más rápido. Lo hacen mediante algoritmos, que son se basan en una «red neuronal» que podemos ajustar infinitamente: neuronas que interaccionan entre ellas y según el caso van decidiendo qué respuesta es más apropiada para cada pregunta.

Una caja en la que introducimos datos de cualquier tipo y a través de ella conseguimos una función (resultado) u otra. Puede haber numerosas capas y millones de líneas de comunicación entre los valores.

Simplemente debemos introducir los datos (dataset) que creamos necesarios en cada caso concreto y ajustar parámetros con un «entrenamiento» o deep learning que podemos extender cuanto creamos conveniente.

Si una red se lee todos los libros escritos por Ramón Llull y nosotros ajustamos los parámetros para decidir la «conducta» y «funciones» de nuestra inteligencia artificial, ésta acabará opinando y predeciendo como lo hubiera hecho el sabio.

A raíz de las noticias que hace unas semanas advertían de que el SONY CSL Research Laboratory de París está preparando varios álbumes compuestos por una inteligencia artificial (FlowMachines), el experto en el campo François Pashet comentaba que estos avances «pueden abrir a los compositores un mundo entero de nueva creatividad».

El laboratorio lleva trabajando en un sistema verosímil de composición a través de inteligencia artificial desde 2012; FlowMachines ya demostró que puede componer al estilo de los Beatles con algo de asistencia en post-producción por parte del músico Benoît Carré. 

Este sistema de colaboración entre máquina-compositor (la inteligencia artificial procesa todas las canciones de los Beatles, crea órdenes y estructura basadas en esa información y una mano «física» ayuda a dar coherencia humana a todo el resultado) formula nuevas cuestiones a nivel global y específico: cuando este tipo de algoritmos puedan ajustarse al máximo, cualquiera podrá comprarlos y venderlos para poder componer fácilmente como lo hace Aphex Twin o como lo hubiera hecho Curtis Mayfield.

En la charla con Sergi Jordà quedó patente que la inteligencia artificial jugará un papel determinante en las nuevas formas de crear música: el software o herramientas que hoy facilitan la composición serán mucho más potentes y nos llevarán a hacer lo que hoy solo podemos imaginar.

Suplir nuestras carencias tan solo será el principio: podremos emular otras características y una nueva forma de «sampleo» más integral se presentará delante de nosotros.

Imaginemos un mundo en el que no podamos distinguir una canción del Neil Young original y otra creada por el algoritmo que una empresa o programador ha creado basándose en toda su discografía; el juego de la imitación se volverá cada vez más sutil y poderoso.

De alguna forma, cualquier músico tendrá la posibilidad de vender su propia red de parámetros para que podamos reproducir su estilo nosotros mismos. Se trata de una nueva era en la que ya no compraremos la Fender de Jimi Hendrix, compraremos sus virtudes y las facultades que lo hicieron único.

Queda todavía lejos el momento en el que comercialicemos un algoritmo concreto o que éste sea lo suficientemente preciso para cumplir las expectativas, pero adelantos como el proyecto de Adobe Project VoCo: lo han llamado el «equivalente para audio del Photoshop», un software que permitirá «producir nuevas palabras y frases con las grabaciones de la voz de alguien».

Lo anunciaron en la pasada conferencia MAX organizada por la compañía: el programa procesa 20 minutos de discurso de una persona y voz cualquiera y ya está listo para generar nuevas palabras con el mismo tono, frecuencia y acento de la fuente original.

La forma de trabajar es exactamente la misma que la de cualquier red arquitectura de red y algoritmo: el sistema procesa los datos y encuentra los patrones comunes, pudiendo con un ajuste o entrenamiento adecuado predecir cómo sonarán las palabras si las narrara esa persona.

En la publicación oficial de Adobe al respecto se puede leer:

«When recording voiceovers, dialogue, and narration, people would often like to change or insert a word or a few words due to either a mistake they made or simply because they would like to change part of the narrative. We have developed a technology called Project VoCo in which you can simply type in the word or words that you would like to change or insert into the voiceover. The algorithm does the rest and makes it sound like the original speaker said those words.»

Aunque no hay fecha de lanzamiento para el software, VoCo supone el acercamiento más real conocido a la hora de imitar la voz humana y representarla sin nuestra intervención. Las posibilidades que se abren a partir de este adelanto supondrán una revolución más en el campo de la música: imaginemos que cualquiera puede programar su software para cantar como Michael Jackson teniendo a su disposición unos 20 minutos del intérprete a capela.

Si en el futuro próximo podemos comprar el algoritmo que nos permita producir como Jeff Mills, ¿qué vendrá después? Llegará una nueva diversidad y nuevos conceptos que actualizarán y darán la vuelta a la idea que tenemos sobre la «propiedad» y la «creatividad».

Debido al salto cualitativo que los sistemas de aprendizaje musical están experimentado ya se están planteando los primeros manifiestos y normas que regulen esta actividad y la forma en que va a afectar al concepto que tenemos de «autoría». Uno de los mejores ejemplos es el de Gerhard Widmer.

Nosotros ya analizamos el deep learning o «cómo una máquina puede procesar e interiorizar información de manera automática» en la música en esta pieza publicada anteriormente.

TIUmag solo es posible gracias a tu apoyo económico: suscríbete a nuestro Patreon y accede a contenido exclusivo.