Saltar al contenido

«¡Son los gritos de los condenados! El espeluznante mundo de la música de engaño profundo.

9 de noviembre de 2020

¡Es la época de Navidad! ¡Es la hora del jacuzzi!» canta Frank Sinatra. Al menos, suena como él. Con un swing fácil, una alegre bonhomía, y una discreta floritura de latón y cuerda, esto podría pasar como una demo de Sinatra perdida hace tiempo. Incluso la voz, ese rico tono que una vez se describió como «todo legato y arrepentimientos» – es extrañamente familiar, aunque se tambalea entre las teclas y, a veces, suena como si se hubiera grabado en el fondo de una piscina.

La canción en cuestión no es una pista genuina, sino una convincente falsificación creada por la «compañía de investigación y despliegue» OpenAI, cuyo proyecto Jukebox utiliza la inteligencia artificial para generar música, completa con la letra, en una variedad de géneros y estilos de artista. Junto con Sinatra, han hecho lo que se conoce como «deepfakes» de Katy Perry, Elvis, Simon y Garfunkel, 2Pac, Céline Dion y más. Habiendo entrenado al modelo usando canciones de 1,2 m raspadas de la web, con las correspondientes letras y metadatos, puede producir audio crudo de varios minutos de duración basado en lo que le alimentes. Introduce, digamos, Queen o Dolly Parton o Mozart, y obtendrás una aproximación del otro extremo.

«Como pieza de ingeniería, es realmente impresionante», dice el Dr. Matthew Yee-King, músico electrónico, investigador y académico de Goldsmiths. (OpenAI se negó a ser entrevistado.) «Descomponen una señal de audio en un conjunto de lexemas musicales – un diccionario si se quiere – en tres capas diferentes de tiempo, dándole un conjunto de fragmentos centrales que es suficiente para reconstruir la música que fue alimentada. El algoritmo puede entonces reorganizar estos fragmentos, basado en el estímulo que introduzcas. Así, dale algo de Ella Fitzgerald por ejemplo, y encontrará y juntará los pedazos relevantes del ‘diccionario’ para crear algo en su espacio musical».

Por muy admirable que sea el logro técnico, hay algo horripilante en algunas de las muestras, en particular en las de artistas que hace tiempo que murieron – tristes fantasmas perdidos en la máquina, murmurando clichés banales. «Los gritos de los condenados» se lee un comentario debajo de esa muestra de Sinatra; «SONIDOS JODIDAMENTE DEMONIOSOS» se lee otro. Estamos abajo en el Valle de lo Increíble.

Recomendado:  La memoria de forma de níquel-titanio registra la mayor eficiencia

La música de Deepfake está destinada a tener amplias ramificaciones para la industria de la música a medida que más compañías aplican algoritmos a la música. El Proyecto Magenta de Google -denominado «explorar el aprendizaje automático como herramienta en el proceso creativo»- ha desarrollado varias API de código abierto que permiten la composición utilizando sonidos completamente nuevos, generados por máquinas, o co-creaciones entre humanos y la IA. Numerosas empresas de nueva creación, como Amper Music, producen música personalizada y generada por IA para contenido multimedia, con derechos de autor globales. Incluso Spotify se está divirtiendo; su grupo de investigación de IA está dirigido por François Pachet, antiguo director del laboratorio de ciencias informáticas de Sony Music.

Sin embargo, no es difícil prever cómo tales falsificaciones podrían conducir a problemas éticos y de propiedad intelectual. Si no quisieras pagar el precio de mercado por usar la música de un artista establecido en una película, programa de televisión o comercial, podrías crear tu propia imitación. Los servicios de streaming podrían, mientras tanto, rellenar las listas de reproducción del género con artistas de la IA de sonido similar que no ganan regalías, aumentando así los beneficios. En última instancia, ¿evitarán los servicios de streaming, las emisoras de radio y otros, cada vez más, pagar a los humanos por la música?

Los departamentos jurídicos de la industria musical están siguiendo de cerca los acontecimientos. A principios de este año, Roc Nation presentó solicitudes de desestimación de la DMCA contra un usuario anónimo de YouTube por usar la IA para imitar la voz y la cadencia de Jay-Z para hacer rap a Shakespeare y Billy Joel. (Ambos son increíblemente realistas.) «Este contenido utiliza ilegalmente una IA para suplantar la voz de nuestro cliente», dijo la solicitud. Y mientras los videos fueron eventualmente reincorporados «en espera de más información del demandante», el caso – el primero de su clase – sigue adelante.

Jay-Z, que vio una versión de la IA de sí mismo rapeando a Shakespeare y Billy Joel.
Jay-Z, que vio una versión de la IA de sí mismo rapeando a Shakespeare y Billy Joel. Ilustración: Guardian Design/wireimage
Recomendado:  Para una IA verdaderamente ética, su investigación debe ser independiente de la gran tecnología | Timnit Gebru

Roc Nation se negó a comentar las implicaciones legales de la suplantación de la IA, al igual que otras etiquetas importantes contactadas por el Guardian: «Como empresa pública, tenemos que ser cautelosos al discutir temas de cara al futuro», dijo uno de forma anónima. Incluso el organismo de la industria del Reino Unido, la BPI, se negó a dejar constancia de la forma en que la industria se enfrentará a este nuevo y valiente mundo y de las medidas que podrían adoptarse para proteger a los artistas y la integridad de su trabajo. La IFPI, un organismo internacional de comercio de la música, no respondió a los correos electrónicos.

Tal vez la razón sea que, al menos en el Reino Unido, existe la preocupación de que no haya realmente una base para la protección legal. «Con la música hay dos derechos de autor separados», dice Rupert Skellett, jefe del departamento legal de Beggars Group, que abarca los sellos independientes 4AD, XL, Rough Trade y más. «Uno en la notación musical y la letra – es decir, la canción – y otro en la grabación de sonido, que es lo que preocupa a los sellos. Y si alguien no ha usado la grabación real» – si han creado un simulacro usando la IA – «no tendrías ninguna acción legal contra ellos en términos de derechos de autor con respecto a la grabación de sonido.»

Habría una posible causa de acción con respecto a la «falsificación» de la grabación, pero, según Skellett, la carga de la prueba es onerosa, y esa acción tendría más probabilidades de éxito en los Estados Unidos, donde existen protecciones legales contra la suplantación de personajes famosos con fines comerciales, y donde los casos de plagio, como el de la sucesión de Marvin Gaye, que ha tenido lugar en Blurred Lines, han tenido éxito. La legislación del Reino Unido no cuenta con tales disposiciones o precedentes, por lo que incluso la explotación comercial de las falsificaciones, si el creador fuera explícito acerca de su naturaleza, podría no ser recurrible. «Dependería de los hechos de cada caso», dice Skellett.

Recomendado:  clasificación del tráfico en una web cada vez más cifrada | octubre 2022

Algunos, sin embargo, están entusiasmados con las posibilidades creativas. «Si tienes un modelo estadístico de millones de canciones, puedes preguntarle al algoritmo: ¿qué es lo que no has visto?» dice Yee-King. «Puedes encontrar ese espacio en blanco, y luego crear algo nuevo.» Mat Dryhurst, un artista y podcaster que ha pasado años investigando y trabajando con la IA y la tecnología asociada, dice: «La analogía más cercana que vemos es la del muestreo. Estos modelos permiten una nueva dimensión de eso, y representan la diferencia entre muestrear una grabación fija de la voz de Bowie y hacer que Bowie cante lo que quiera – un extraordinario poder y responsabilidad».

Las falsificaciones también plantean preguntas más profundas: ¿qué es lo que hace especial a un artista en particular? ¿Por qué respondemos a ciertos estilos o tipos de música, y qué sucede cuando eso puede ser creado a pedido? Yee-King imagina máquinas capaces de generar la pieza musical perfecta para ti en cualquier momento, basándose en los ajustes que tú selecciones -algo en lo que ya ha sido pionero la startup Endel- así como estrellas del pop que utilizan un modelo de escucha de IA para predecir qué canciones serán populares o a qué responden las diferentes demografías. «Sólo alimentando a la gente con un flujo de sonido optimizado», dice, «con los artistas sacados del bucle completamente».

Pero si perdemos todo el sentido de la inversión emocional en lo que hacen los artistas, y en el lado humano de la creación, perderemos algo fundamental para la música. «Estos sistemas están entrenados en la expresión humana y la aumentarán», dice Dryhurst. «Pero la pieza que falta del rompecabezas es encontrar formas de compensar a la gente, no de reemplazarla.»