Frank Sinatra

La inteligencia artificial se está utilizando para crear nuevas canciones aparentemente interpretadas por Frank Sinatra y otras estrellas muertas. Los ‘deepfakes’ son trucos sofisticados, y podrían cambiar el pop para siempre

por Derek Robertson

‘¡Es Navidad! ¡Es hora de la bañera de hidromasaje! ” canta Frank Sinatra . Al menos, suena como él. Con un swing fácil, alegre bonhomie y florituras discretas de metales y cuerdas, esto podría pasar como una demo perdida de Sinatra. Incluso la voz, ese tono rico una vez descrito como “todo legato y arrepentimientos”, es inquietantemente familiar, incluso si se tambalea entre las teclas y, a veces, suena como si se hubiera grabado en el fondo de una piscina.

La canción en cuestión no es una pista genuina, sino una falsificación convincente creada por la “empresa de investigación y despliegue” OpenAI, cuyo proyecto Jukebox utiliza inteligencia artificial para generar música, completa con letras, en una variedad de géneros y estilos de artistas. Junto con Sinatra, han hecho lo que se conoce como “deepfakes” de Katy Perry, Elvis, Simon y Garfunkel, 2Pac, Céline Dion y más. Habiendo entrenado el modelo usando 1.2 millones de canciones extraídas de la web, con las letras y metadatos correspondientes, puede generar audio sin procesar de varios minutos en función de lo que sea que lo alimente. Ingrese, digamos, Queen o Dolly Parton o Mozart, y obtendrá una aproximación por el otro extremo.

Frank Sinatra
¿Un fantasma en la máquina? … Frank Sinatra. Ilustración: Guardian Design / Getty Images

“Como pieza de ingeniería, es realmente impresionante”, dice el Dr. Matthew Yee-King, músico electrónico, investigador y académico de Goldsmiths. (OpenAI se negó a ser entrevistado). “Dividen una señal de audio en un conjunto de lexemas de música, un diccionario si lo desea, en tres capas de tiempo diferentes, lo que le brinda un conjunto de fragmentos centrales que es suficiente para reconstruir la música que se introdujo. El algoritmo puede reorganizar estos fragmentos, en función del estímulo introducido. Entonces, dale un poco de Ella Fitzgerald, por ejemplo, y encontrará y reunirá los fragmentos relevantes del ‘diccionario’ para crear algo en su espacio musical “.

Por admirable que sea el logro técnico, hay algo espantoso en algunas de las muestras, en particular las de artistas que han muerto hace mucho tiempo: fantasmas tristes perdidos en la máquina, murmurando clichés banales. “Los gritos de los condenados” reza un comentario debajo de esa muestra de Sinatra; “SONIDOS DEMÓNICO FOLLANDO”, dice otro. Estamos en el Uncanny Valley 

Se prevé que la música deepfake tenga ramificaciones de amplio alcance para la industria de la música a medida que más empresas apliquen algoritmos a la música. El Proyecto Magenta de Google, que se anuncia como “explorar el aprendizaje automático como una herramienta en el proceso creativo”, ha desarrollado varias API de código abierto que permiten la composición utilizando sonidos completamente nuevos generados por máquinas o co-creaciones de inteligencia artificial humana. Numerosas empresas emergentes, como Amper Music, producen música personalizada generada por IA para contenido multimedia, con copyright global. Incluso Spotify está incursionando; su grupo de investigación de inteligencia artificial está dirigido por François Pachet, ex director del laboratorio de informática de Sony Music.

Sin embargo, no es difícil prever cómo tales falsificaciones profundas podrían conducir a problemas éticos y de propiedad intelectual. Si no desea pagar la tarifa del mercado por usar la música de un artista establecido en una película, programa de televisión o comercial, puede crear su propia imitación. Mientras tanto, los servicios de transmisión podrían completar listas de reproducción de género con artistas de IA de sonido similar que no ganan regalías, lo que aumenta las ganancias. En última instancia, ¿los servicios de transmisión, las estaciones de radio y otros evitarán cada vez más pagar a los humanos por la música?

Los departamentos legales de la industria de la música están siguiendo de cerca los desarrollos. A principios de este año, Roc Nation presentó solicitudes de eliminación de DMCA contra un usuario anónimo de YouTube por usar inteligencia artificial para imitar la voz y la cadencia de Jay-Z al rap Shakespeare y Billy Joel (ambos son increíblemente realistas). “Este contenido usa ilegalmente una IA para hacerse pasar por la voz de nuestro cliente”, dice el documento. Y mientras que los videos finalmente se restablecieron “en espera de más información del demandante”, el caso, el primero de este tipo, continúa.

Jay – Z, que vio una versión de IA de sí mismo rapeando a Shakespeare y Billy Joel.
Jay – Z, que vio una versión de IA de sí mismo rapeando a Shakespeare y Billy Joel. Ilustración: Guardian Design / wireimage

Roc Nation se negó a comentar sobre las implicaciones legales de la suplantación de AI, al igual que varios otros sellos importantes contactados por The Guardian: “Como empresa pública, debemos tener cuidado al discutir temas de cara al futuro”, dijo uno de forma anónima. Incluso el organismo de la industria del Reino Unido, la BPI, se negó a dejar constancia de cómo la industria se enfrentará a este nuevo mundo feliz y qué medidas se podrían tomar para proteger a los artistas y la integridad de su trabajo. La IFPI, un organismo internacional de comercio de música, no respondió a los correos electrónicos.

Quizás la razón es que, al menos en el Reino Unido, existe la preocupación de que en realidad no exista una base para la protección legal. “Con la música hay dos derechos de autor separados”, dice Rupert Skellett, jefe de asuntos legales de Beggars Group, que abarca los sellos independientes 4AD, XL, Rough Trade y más. “Uno en la notación musical y la letra, es decir, la canción, y otro en la grabación de sonido, que es de lo que se tratan las etiquetas. Y si alguien no ha usado la grabación real ”, si ha creado un simulacro usando IA,“ no tendrías ninguna acción legal contra ellos en términos de derechos de autor con respecto a la grabación de sonido ”.

Habría una posible causa de acción con respecto a “hacer pasar” la grabación, pero, dice Skellett, la carga de la prueba es onerosa y es más probable que dicha acción tenga éxito en los EE. UU., Donde existen protecciones legales contra la suplantación de identidad. personas famosas con fines comerciales, y donde casos de plagio como el de la propiedad de Marvin Gaye en Blurred Lines han tenido éxito. La ley del Reino Unido no tiene tales disposiciones o precedentes, por lo que incluso la explotación comercial de deepfakes, si el creador fue explícito sobre su naturaleza, podría no ser procesable. “Dependería de los hechos de cada caso”, dice Skellett.

Hacer que David Bowie cante lo que quieras es un poder y una responsabilidad extraordinarios

Mat Dryhurst

Algunos, sin embargo, están entusiasmados con las posibilidades creativas. “Si tienes un modelo estadístico de millones de canciones, puedes preguntarle al algoritmo: ¿qué no has visto?” dice Yee-King. “Puede encontrar ese espacio en blanco y luego crear algo nuevo”. Mat Dryhurst, un artista y podcaster que ha pasado años investigando y trabajando con IA y tecnología asociada, dice: “La analogía más cercana que vemos es el muestreo. Estos modelos permiten una nueva dimensión de eso y representan la diferencia entre muestrear una grabación fija de la voz de Bowie y hacer que Bowie cante lo que quieras, un poder y una responsabilidad extraordinarios “.

Los deepfakes también plantean preguntas más profundas: ¿qué hace que un artista en particular sea especial? ¿Por qué respondemos a ciertos estilos o tipos de música y qué sucede cuando eso se puede crear bajo demanda? Yee-King imagina máquinas capaces de generar la pieza musical perfecta para usted en cualquier momento, en función de la configuración que seleccione, algo que ya está siendo pionero en la startup Endel, así como estrellas del pop que utilizan un modelo de escucha de IA para predecir qué canciones ser popular o a lo que responden los diferentes grupos demográficos. “Simplemente alimentando a la gente con un flujo de sonido optimizado”, dice, “con los artistas fuera del circuito por completo”.

Pero si perdemos todo sentido de inversión emocional en lo que hacen los artistas, y en el lado humano de la creación, perderemos algo fundamental para la música. “Estos sistemas están entrenados en la expresión humana y la aumentarán”, dice Dryhurst. “Pero la pieza que falta del rompecabezas es encontrar formas de compensar a las personas, no de reemplazarlas”.

Fuente: https://www.theguardian.com/music/2020/nov/09/deepfake-pop-music-artificial-intelligence-ai-frank-sinatra

Deja un comentario