Desde la primera vez que usó un sintetizador, el profesor de Ciencias de la Computación de Illinois, Paris Smaragdis, supo que quería aprender cómo la tecnología podía crear o modificar música.
Lo que siguió es una carrera académica que centró su investigación en Inteligencia Artificial en la pregunta: ¿Qué significa tomar un flujo de sonido y luego dividirlo en sus componentes individuales? Las respuestas que encontró a lo largo de los años lo ayudaron a producir investigaciones ampliamente publicadas y más de 40 patentes. Pero nada de lo que ha logrado ha sido más «alucinante» que el trabajo reciente que completó con un equipo de ingenieros para mejorar la calidad del audio del reciente documental del director Peter Jackson titulado «The Beatles: Get Back».
“Recuerdo crecer cuando era niño, escuchando casetes de los Beatles mientras estaba sentado en el patio trasero. Empecé a entender que The Beatles no eran solo un gran problema por la música. Estaban años luz por delante de los demás debido a la producción musical”, dijo Smaragdis. “Estar en una posición en la que no solo podía ver cómo producían su música, sino también deconstruirla y deshacer la mezcla, fue definitivamente una experiencia alucinante”.
Smaragdis escuchó al equipo de ingeniería que trabajaba en el documental, momento en el que le preguntaron si podía ayudar a limpiar este tesoro de audio antiguo de los Beatles. El audio original provenía principalmente de un micrófono que captaba sonidos de una sala llena de músicos, productores, amigos y colaboradores. El documental quería extraer el habla y la música de estos sonidos para retratar adecuadamente el desarrollo de una pieza musical icónica para la audiencia actual.
“Esa primera llamada telefónica comenzó cuando me preguntaron si esto podría hacerse. Les dije que si lo intentaran hace 10 años, diría que no había manera de que fuera posible. Pero hemos tenido varios grandes avances durante estos años que, creo, podrían hacer esto posible”, dijo Smaragdis.
Todo el proceso le tomó al equipo nueve meses para completar.
La mayor parte de este trabajo se apoyó en los desarrollos de investigación que Smaragdis señaló que tuvieron lugar durante los últimos 10 años. Antes de esto, las computadoras todavía luchaban por dar sentido a señales complejas como la música, donde múltiples cosas suceden simultáneamente. Pero más recientemente, los métodos orientados a datos con los que trabaja Smaragdis aprovecharon los modelos de aprendizaje automático para producir sistemas más sofisticados y útiles que ahora son lo suficientemente buenos como para producir resultados perfectos.
“Era un equipo grande y solo trabajé en un aspecto limitado de un sistema que se llama ‘Mal’”, dijo Smaragdis. “Mi atención se centró en cómo podíamos separar e identificar todos los sonidos que encontrábamos. Podríamos identificar a Paul (McCartney) hablando por aquí, o la voz de George (Harrison) hablando por allá”.
Al final, el proceso de meses resultó en un sonido limpio digno del documental y la banda monumental.
Regístrese para recibir el boletín gratuito insideBIGDATA.
Únase a nosotros en Twitter: @InsideBigData1 – https://twitter.com/InsideBigData1