Come sarebbe scoprire che un artista che si ama, magari morto da decenni, ha appena pubblicato una nuova canzone su Spotify? Di sicuro strano. A maggior ragione dopo essersi accorti che la voce non è la sua, lo stile è completamente diverso, e persino la foto profilo mostra un volto che non gli somiglia nemmeno lontanamente.
Scandalo Spotify: canzoni AI di artisti morti pubblicate senza permesso
Blaze Foley, cantautore country assassinato nel 1989, ha “pubblicato” una nuova canzone la settimana scorsa. Si chiama “Together” ed è apparsa sulla sua pagina ufficiale Spotify senza che l’etichetta discografica ne sapesse nulla. Il problema, è che Foley è morto da 36 anni e quella voce artificiale non ha niente a che vedere con il suo stile inconfondibile.
Craig McDonald, proprietario della Lost Art Records che distribuisce tutta la musica di Foley, ha scoperto il fattaccio per caso durante il weekend. Qualsiasi fan di Blaze capirebbe immediatamente che non è una sua canzone. È pura spazzatura algoritmica, non ha nulla dell’autenticità che conoscevamo.
Qualcuno ha usato SoundOn, il distributore musicale di proprietà di TikTok, per caricare brani generati dall’AI direttamente sulle pagine di artisti deceduti. Il sistema non prevede controlli preventivi basta inserire il nome dell’artista e il gioco è fatto.
Il caso non si limita a Foley. Guy Clark, cantautore country premio Grammy morto nel 2016, si è “ritrovato” con un nuovo brano chiamato “Happened To You”. Anche qui, stessa storia. Voce artificiale, immagine generata dall’AI che non assomiglia per niente al vero Clark, e una qualità musicale che definire mediocre sarebbe un complimento.
L’azienda fantasma dietro il raggiro
Tutti questi brani falsi portano il copyright di una misteriosa “Syntax Error“, un’azienda di cui non esistono tracce concrete nel mondo della distribuzione musicale. Reality Defender, azienda specializzata nel riconoscimento dei deepfake, ha confermato che tutti questi brani mostrano indicatori di una probabilità superiore al normale di generazione AI
. In parole povere: sono falsi al 99,9%.
Il danno va oltre la musica
McDonald ha centrato il punto cruciale della questione: È dannoso per la reputazione di Blaze che questo sia successo
. Non si tratta solo di una violazione, ma di un attacco all’eredità artistica di musicisti che non possono più difendersi. I fan storici riconoscono subito l’inganno, ma i nuovi ascoltatori potrebbero pensare che quella roba sia davvero rappresentativa del loro stile.
Il paradosso è grottesco: Spotify permette che chiunque possa “resuscitare” digitalmente un artista morto, ma non ha sistemi per impedirlo. Sarebbe sufficiente richiedere l’autorizzazione del proprietario della pagina prima di pubblicare nuovi contenuti, ma evidentemente la piattaforma preferisce gestire i danni a posteriori.
La risposta tardiva di Spotify
Dopo la pubblicazione dell’inchiesta, Spotify si è affrettata a rimuovere i brani, dichiarando che violavano la policy sui “contenuti ingannevoli”. Ma il danno era già fatto. Per giorni, migliaia di persone hanno ascoltato musica AI spacciata per opere di artisti leggendari.
Un portavoce di Spotify ha scaricato la responsabilità su SoundOn, come la piattaforma fosse solo una vittima innocente. Ma la realtà è che guadagna da ogni stream, anche quelli di brani contraffatti, e ha tutto l’interesse economico a mantenere un sistema di controlli allentati.
Questo caso è solo la punta dell’iceberg di un fenomeno molto più ampio. Lo scorso anno Spotify si è riempita di musica natalizia generata dall’AI, e qualche settimana fa i Velvet Sundown hanno confessato di essere una band AI, dopo aver ottenuto oltre un milione di stream.