Los avances tecnológicos están revolucionando al mundo y las máquinas parecen, como si se tratara de una película de ciencia ficción, invadir cada vez más ámbitos. Hace diez años bien pudimos aseverar que si en algo los robots no iban a poder involucrarse jamás era en la creación artística, ya que esta requiere, supuestamente, de emociones. Pero hoy en día, la inteligencia artificial es capaz de hacer «arte» con prácticamente nula intervención humana, y la música no es la excepción.

Desde la aparición de la música electrónica en los 50, incluso antes, al probar que los instrumentos musicales podían ser sustituidos por computadoras y programas, se abrió el debate de si a quienes hacen este tipo de música se les puede llamar músicos o son programadores.

Pero la situación ha llegado aún más lejos; para probarlo, en esta ocasión te traigo algunos ejemplos de cómo las máquinas y la inteligencia artificial están creando música no sólo desplazando a los instrumentos, sino al ser humano mismo.

Desde 2013, en Berlín, Alemania, Frank Barnes, con la colaboración de Markus Kolb y Stock Plum, formó Compressorhead, un proyecto que consiste en una banda -textualmente- de metal, integrada por robots que tocan instrumentos eléctricos y acústicos reales. Los robots están hechos por partes recicladas y son controlados mediante secuencias MIDI. Empezaron interpretando covers para luego integrar a los ex miembros de NoMeansNo, los hermanos Rob y John Wright, como directores musicales, compositores y vocalistas. Con esa alineación, en 2017 lanzaron su álbum debut Party Machine con canciones originales.

 

Asimismo, el músico, compositor, productor discográfico y DJ inglés Tom Jenkinson, mejor conocido como Squarepusher, creó Z-Machines, una banda de rock conformada por tres robots japoneses que desafían los principios de la música. Mach, el guitarrista, con 78 dedos, melena de cables, dos guitarras y doce púas; Ashura en la batería con 22 brazos; y Cosmo, capaz de tocar los teclados mediante un láser proyectado desde sus ojos. En 2014 estrenaron su primer EP titulado irónicamente Music for Robots.

Hasta aquí, las máquinas sólo son capaces de tocar los instrumentos, pero aún requieren de humanos que compongan las canciones y los programen. Pero todo cambió con la invención de FlowMachines en 2016, un sistema de inteligencia qrtificial desarrollado por Sony CSL capaz de componer música por sí solo.

Este programa fue alimentado con más de 13 mil melodías, de una gran variedad de géneros musicales, principalmente de jazz, pop, música brasileña y de obras de Broadway. Esto lo hizo capaz de componer una canción completamente nueva en minutos, con solo buscar en su base de datos y armarla con fragmentos de las otras canciones.

Sin embargo, el sistema aún no es capaz de trabajar por sí mismo, ya que se apoya en un compositor humano que produce la canción, selecciona el estilo y género, además de arreglar la letra. Para su primer tema, al programa se le pidió componer una canción de pop al estilo de The Beatles y el resultado fue «Daddy’s Car», que puedes escuchar a continuación.

 

Pero eso no es todo, desde 2017 existe Jukedeck, fundado por Ed Newton-Rex; se trata de una compañía que crea y vende música generada mediante Iinteligencia artificial. Este programa permite a los usuarios escoger la duración de la pieza, el estilo, los instrumentos, el ritmo, el tipo de sentimiento que quiere despertar e incluso los momentos de clímax.

Esta herramienta es especialmente útil para vloggers y evitar así los «molestos» inconvenientes con el Copyright, ya que cuenta con la licencia adecuada para usarse en cualquier proyecto, personal o comercial, pudiendo ajustar la duración a video un grabado con anterioridad.

A todo lo anterior, se suma PixelPlayer, un proyecto de IA desarrollado por el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL), liderado por Hang Zhao, del MIT (Massachusetts Institute of Technology). Se trata de un sistema de aprendizaje profundo que puede analizar un video musical y aislar los sonidos de instrumentos específicos y hacerlos más fuertes o suaves, algo que parecía imposible hace poco. El sistema es “auto-supervisado”, es decir, no requiere anotaciones humanas sobre qué son los instrumentos o cómo suenan.

PixelPlayer fue entrenado con más de 60 horas de videos y ahora puede “escuchar” una actuación musical inédita e identificar instrumentos específicos a nivel de pixel y extraer los sonidos que están asociados con estos. Los investigadores dicen que, en el futuro, sistemas como este podrían ayudar a los ingenieros a mejorar la calidad de audio del metraje del viejo concierto. Incluso podría imaginar a los productores tomando partes de instrumentos específicos y previsualizando cómo sonarían con otros instrumentos (es decir, una guitarra eléctrica sustituida por una acústica).

 

Impresionante ¿cierto? Si uniéramos todos los avances tecnológicos aquí enunciados, pareciera que pronto no se requerirá en lo absoluto la intervención humana para hacer música. Al respecto, Nuria Oliver, doctora en inteligencia artificial por el MIT (Massachusetts Institute of Technology), señala que hoy en día, la mayoría de artistas usa algoritmos en sus canciones y desde hace años el contenido de algunas es cien por ciento sintético. Sin embargo, la experiencia de un concierto, que extrañamos tanto en estos días, es mucho más que sólo canciones. “Es una sensación compartida. El ser humano es un ser social y por ello vamos a seguir necesitando experiencias sociales con otras personas. Además, como se usa todo tipo de herramientas en la música con IA, muchas veces no sabemos dónde empieza lo artificial y dónde acaba lo biológico”, añade Oliver.

¿Qué opinas? ¿Crees que en un futuro las máquinas lleguen a suplir por completo al ser humano en el proceso de creación e interpretación musical y solo nos limitaremos a escuchar pasivamente? Déjame tus comentarios.

Sobre el autor /

2 comentarios

  • ¿Nueva canción de Nirvana? Una IA lo hizo posible - MELÓMANO
    3 años ago Reply

    […] no, desde luego que no es lo mismo, nunca lo será. En esta columna ya te he hablado antes sobre música e Inteligencia Artificial, y acordamos que los avances tecnológicos son abrumadores. Técnicamente, el ser humano ya no es […]

  • Pros y contras de la IA en la industria musical - MELÓMANO
    12 meses ago Reply

    […] luego que el uso de inteligencia artificial en la música no es nuevo. Es este mismo espacio ya hemos revisado ejemplos de cómo se ha utilizado para crear música, que datan desde 2016 o antes. También ya se utiliza cotidianamente para procesar audio, analizar […]

Deja tu comentario

Your email address will not be published.