Saltar al contenido

Se insta a los sitios de transmisión a no permitir que la IA use música para clonar estrellas del pop | Industria de la música

13 de abril de 2023

La industria de la música está instando a las plataformas de transmisión a no permitir que la inteligencia artificial use canciones con derechos de autor para entrenamiento, en lo último de una serie de argumentos sobre la propiedad intelectual que amenazan con descarrilar el crecimiento explosivo del sector de la IA generativa.

En una carta a los streamers, incluidos Spotify y Apple Music, el sello discográfico Universal Music Group expresó su temor de que los laboratorios de inteligencia artificial extraigan millones de pistas para usarlas como datos de entrenamiento para sus modelos y versiones imitadas de estrellas del pop.

UMG instruyó a las plataformas para que bloquearan esas descargas y dijo que “no dudaría en tomar medidas para proteger nuestros derechos y los de nuestros artistas”.

La carta, reportada por primera vez por el Financial Times, llega después de un movimiento similar de la Recording Industry Association of America, el organismo comercial de la industria, en octubre pasado. Escribiendo al representante comercial de EE. UU., la RIAA dijo que la tecnología basada en IA podía «ser muy similar o casi tan buena como las pistas de referencia de artistas de grabación de sonido conocidos y seleccionados».

id=»d3781a24-30d9-4fda-b318-842b31a451b8″ data-spacefinder-role=»richLink» data-spacefinder-type=»model.dotcomrendering.pageElements.RichLinkBlockElement» class=» dcr-11ra563″>

El grupo agregó: «En la medida en que estos servicios, o sus socios, estén entrenando sus modelos de IA usando la música de nuestros miembros, ese uso no está autorizado e infringe los derechos de nuestros miembros al hacer copias no autorizadas de las obras de nuestros miembros».

Aunque los «modelos de lenguaje extenso» (LLM) como ChatGPT y Bard de Google han sido el foco de gran parte de la industria de la IA, otros tipos de IA generativa han dado saltos similares en los últimos meses.

Recomendado:  El aprendizaje profundo es humano, de principio a fin | Noticias

Los generadores de imágenes, como Midjourney y Stable Diffusion, se han vuelto lo suficientemente precisos como para generar falsificaciones plausibles que engañan a un gran número de espectadores haciéndoles pensar, por ejemplo, que el Papa salió con una chaqueta acolchada estilo Balenciaga personalizada.

Los generadores de música no están al mismo nivel de accesibilidad general, pero pueden crear falsificaciones convincentes de artistas como Kanye West que interpretan nuevas versiones de canciones completas, como Don’t Stop Me Now de Queen y TikTok de Kesha.

El Jukebox de OpenAI se ha utilizado para generar canciones al estilo de Katy Perry, Elvis y Frank Sinatra, mientras que un Jay-Z generado por IA era tan bueno que provocó una de las primeras huelgas de derechos de autor exitosas, después de que el agente del artista, Roc Nation, obtuviera la canción extraída de YouTube.

Otros sistemas, como uno demostrado en un trabajo de investigación de Google, son capaces de generar composiciones completamente nuevas a partir de indicaciones de texto como: “Canción de reggae de tempo lento, bajo y batería. Guitarra eléctrica sostenida. Bongos agudos con tonos de llamada. Las voces son relajadas con una sensación relajada, muy expresiva”.

data-spacefinder-role=»inline» data-spacefinder-type=»model.dotcomrendering.pageElements.NewsletterSignupBlockElement» class=» dcr-173mewl»>saltar la promoción del boletín anterior

Recomendado:  ¿Cómo se utiliza la inteligencia artificial en el sector inmobiliario?

después de la promoción del boletín

Dichos sistemas se entrenan con cientos de miles de horas de material grabado, generalmente recopilado sin el consentimiento explícito de sus fuentes. En cambio, los laboratorios de investigación de IA operan con la expectativa de que sus acciones estén cubiertas por exenciones de «uso justo» según la ley estadounidense, porque el producto final, un modelo de IA, es un «trabajo transformador» que no compite con el material original.

Sin embargo, a veces tales sistemas arrojarán copias casi exactas del material en el que fueron entrenados. En enero, por ejemplo, los investigadores de Google lograron que el sistema Stable Diffusion recreara casi a la perfección una de las imágenes sin licencia en las que había sido entrenado, un retrato de la evangelista estadounidense Anne Graham Lotz.

En el Reino Unido, existen otras excepciones que respaldan los modelos de capacitación de los laboratorios de IA sobre materiales obtenidos sin consentimiento. Una actualización reciente de la ley de propiedad intelectual, por ejemplo, permitió el uso no comercial de cualquier material protegido por derechos de autor adquirido legalmente para la investigación de IA. En lo que se ha llamado «lavado de datos», la investigación puede usarse legalmente para entrenar modelos comerciales en el futuro, mientras se beneficia de las excepciones de derechos de autor.