Intelligenza artificiale nella musica
Gli artisti devono fare una scelta.
Ho tanti hobby (forse troppi, potrebbe ribattere mia moglie): alcuni recenti, altri mi accompagnano da sempre. E tra questi c’è la musica. Ascoltarla, ovviamente, ma anche suonarla.
Come potrai immaginare, tra lavoro, vita di coppia e ora quella da genitore, il tempo da dedicarle si è ridotto drasticamente, eppure, mi chiedo cosa succederebbe se riprendessi in mano la Fender o tornassi a smanettare sui tasti e potenziometri delle tastiere.
Il punto è che, se oggi volessi ricominciare, mi sentirei spiazzato, perché probabilmente creare musica non avrebbe più il sapore di prima. In appena 10 anni è cambiato tutto: con strumenti come Suno, Udio, Stable Audio e compagnia cantante - no pun intended - oggi è possibile generare un brano fatto e finito in pochi click. E definire fenomenali i software disponibili nel campo della produzione e missaggio è quantomeno riduttivo.
Quindi chi fa musica oggi, quale strada dovrebbe prendere? Rimpiangere il passato, oppure scegliere di abbracciare l’innovazione, e cavalcare le rivoluzioni che l’intelligenza artificiale sta portando anche all’interno dell’ecosistema musicale?
Io mi limito a suonarla, ma c’è chi, di musica, ne sa anche parlare egregiamente. E lo fa per mestiere. È il caso di Federico Pucci , giornalista ed autore della newsletter omonima che oggi ci aiuta a decriptare come il mondo della musica cambierà (ancora), tra sfide e opportunità per gli artisti, e per tutto il settore.
Qualche giorno fa, il produttore Giles Martin, figlio di George, ha spiegato per il canale YouTube di Music Radar Tech come è stata ricavata la voce di John Lennon per Now and Then.
Se non sai di cosa sto parlando, mi riferisco all’ultima “canzone dei Beatles” (virgolette obbligatorie) pubblicata nel novembre del 2023. Per realizzare questa traccia, partita come demo casalinga registrata da John Lennon tra il 1977 e il 1979, è stato necessario ripulire il nastro originale che era gravemente disturbato.
Ed ecco entrare in scena un’intelligenza artificiale: non una qualunque, non qualcosa che si trova su mercato, ma quella creata ad hoc per conto di Peter Jackson nella lavorazione del documentario Get Back. Si tratta di un programma addestrato sulle voci dei quattro Beatles, e che è stato in grado di separare queste voci dagli audio delle riprese che furono effettuate durante le lavorazioni del disco Get Back (poi diventato, in breve, quello che conosciamo come Let It Be). Da una singola traccia audio, con le voci, i rumori ambientali e le parti suonate accavallate una sull’altra, si sono ottenute tracce separate, che quindi è stato facile mixare in modo tale da rendere più facilmente intellegibile ciò che accadde in quei giorni di scrittura e registrazione.
Un portento tecnologico, senza dubbio, che alza l’asticella su un tipo di software peraltro già esistente - qui c’è un articolo accademico del 2019 sul tema. Si può discutere infinitamente a livello ermeneutico e deontologico su questo strumento (se ti interessa l’argomento, ne avevo parlato qui). Ma non si può certo confondere l’IA di Get Back e di Now and Then con le intelligenze artificiali generative che si stanno affacciando in modo sempre più prepotente ed eticamente discutibile sul mercato culturale tutto, musica compresa.
Eppure, nel titolo del video di cui ti parlavo, c’è già un segnale di qualcosa che sta accadendo nella percezione delle IA generative. Giles Martin chiarisce (demystifies) la AI usata per Now and Then dei Beatles: “L’IA non crea la voce di John”. Il che dice molto. Come mai, un anno e mezzo dopo l’uscita della canzone e un mese dopo la vittoria (discutibile) di un Grammy da parte della stessa, uno dei responsabili di quel prodotto viene a tranquillizzarci sulle intelligenze artificiali? Forse perché il dibattito intorno alla questione si sta scaldando enormemente, ed è arrivato il momento in cui gli artisti devono fare una scelta.
Molti di loro l’hanno già fatta. Forse ti è giunta la notizia che mille artisti britannici (tra cui Kate Bush, Damon Albarn, Jamiroquai, i Pet Shop Boys e così via) hanno partecipato a un’azione di protesta contro la proposta di legge del governo del Regno Unito che, di fatto, darebbe molta libertà alle aziende che vendono servizi di IA generativa musicale (tipo Suno o Udio). I loro algoritmi, che senza larghi repertori di informazioni (in questo caso musicali) varrebbero poco o nulla, sarebbero così autorizzati a pescare dalle opere degli artisti, a meno che questi ultimi non facciano un esplicito opt-out, cioè non lo vietino espressamente.
Al di là del paternalismo miserabile di questo meccanismo (chi non fa opt-out merita di essere derubato, come chi non chiude a chiave la porta di casa?), si tratta di un’ammissione di debolezza da parte di chi dovrebbe tutelare i nostri diritti: il colosso tecnologico ha vinto ancora e gli Stati possono solo arrendersi, sembra dire il governo di Londra. L’ennesima cessione di sovranità allo strapotere dei multimiliardari californiani sul sistema culturale e l’impianto sociale, gli stessi miliardari che, dopo aver fatto disruption del mondo dell’informazione e mille altri servizi che sono stati notoriamente enshittificati nell’ultimo decennio, ora hanno posato gli occhi sulla musica.
L’azione dimostrativa degli artisti UK è stato un disco silenzioso. Come a dire che il futuro immaginato da questi rapaci del capitalismo e da questi legislatori pavidi è un futuro nel quale gli artisti non servono più: un incubo culturale di gravità orwelliana, ma anche una scelta autolesionista visto l’impatto economico che il pop ha sul bilancio del Regno Unito.
Ora, tornando ai Beatles: sicuramente qualche pasticcione all’epoca avrà pure scritto che l’intelligenza artificiale aveva creato la voce di John, non lo metto in dubbio. Per fare Now and Then, come dicevo, si è usata una versione molto avanzata e sofisticata di un software che già esiste per la separazione dei suoni. Ne parlavo precisamente nel post della mia newsletter Pucci, ai tempi.
Se lo si affronta in modo onesto, il punto del dibattito non è come ma perché è stato usato questo strumento per fare una nuova canzone “dei Beatles”. Se devo usare una tecnologia addestrata per riconoscere la voce di una persona in mezzo a una cacofonia di rumori, per poterla estrarre e “ripulire”, e così ricavare una traccia musicale in absentia della persona responsabile (morta oltre 40 anni prima) c’è qualcosa di profondamente perverso nel nostro rapporto con il passato e con la creatività. Per non parlare del nostro modo di avvicinarci a una tecnologia dalle potenzialità immense.
Il video di Giles Martin si apre con una fetta di torta: quello che abbiamo fatto - dice il produttore - è tornare agli ingredienti originali a partire dalla torta. Ma questo non si può fare in natura, nel senso che va contro le leggi della fisica. Forse un giorno la scienza riuscirà a ricreare un uovo a partire da una frittata, ma quello che è stato fatto con Now and Then è molto meno magico. Meno alchimia, più marketing. Meno pietra filosofale, più return of investment. Visto che per il documentario Get Back è stato creato uno strumento molto efficace per ricavare le singole voci parlanti dei Beatles, tanto valeva usare quello strumento per farci qualcosa in più.
Non è il come ma il perché. Finché non ci metteremo a un tavolo a parlare di questo e butteremo la palla in tribuna accusando di luddismo ogni critica, resterà soltanto una grande voragine. Da una parte, chi vorrebbe spremere ogni centesimo di guadagno dal passato, invalidando implicitamente ogni contributo contemporaneo alla cultura pop, e certificando il nostro statuto di civiltà tecnocratica, capace solo di amministrare un valore residuo, nella speranza che non si esaurisca mai. Dall’altra, chi prova a vivere nel presente e a problematizzarlo.
E per poter parlare di IA nella musica bisogna problematizzare questa tecnologia. Un’intelligenza artificiale generativa, infatti, non crea né inventa ma remixa. La distinzione non è una raffinatezza semantica: allo stato dell’arte, questi strumenti consentono solo di formulare risposte già conosciute, combinando ciò che trovano in un vasto catalogo di dati, cioè nel nostro caso canzoni (protette da diritto d’autore, fino a prova contraria), in base alla richiesta di chi digita il prompt. Questo significa che questi strumenti non potranno far altro che riproporre combinazioni differenti di soluzioni già sentite. E qualcuno si è già messo all’opera.
In un articolo che avevo scritto per Quants Magazine nell’agosto 2023 parlavo delle mosse di grossi gruppi d’interesse all’interno della musica ambient di tipo mood-oriented, pensata cioè per scatenare una determinata reazione emotiva nell’ascoltatore - tendenzialmente, il relax - che progettavano di realizzare attraverso o con l’aiuto di intelligenze artificiali. Oggi sappiamo che solo su Deezer ogni giorno vengono caricate (e parzialmente rimosse) 10mila nuove tracce generate con gen-AI. Possiamo ipotizzare che su Spotify e altre piattaforme avvenga un simile sversamento di musica fake. Se arrivano in questi numeri, è perché le piattaforme sono state costruite proprio con quel tipo di musica in mente: di servizio, non-umana, esclusivamente per la soddisfazione di un bisogno immediato (di relax, di concentrazione, di eccitazione). Cioè, per un ascolto passivo.
Contrariamente a quanto potremmo essere portati a pensare, l’uso passivo delle piattaforme non è un tratto naturale dei nostri cervelli. Semmai, è l’esito calcolato di una precisa architettura dei servizi di streaming. Questo vale certamente per Spotify, come ha rivelato la giornalista americana Liz Pelly nel suo libro Mood Machine: l’obiettivo a lungo termine dell’azienda di Daniel Ek sarebbe sempre stato quello di convincerci ad ascoltare le canzoni che Spotify suggerisce, e spingerci verso un utilizzo inerme della piattaforma; in questo modo Spotify avrebbe potuto inserire nel flusso di ascolto anche tracce prodotte all’esterno del sistema discografico (e quindi fuori dalla protezione dei diritti, cioè a costo molto ridotto per l’azienda). Da questa storia intravediamo i contorni di una precisa missione: esautorare sia artisti sia ascoltatori del loro potere decisionale, e costruire un futuro in cui dalla musica (o quello che sarà) potranno trarre beneficio solo i proprietari delle piattaforme. Praticamente, fare alla musica quello che è stato fatto al giornalismo dai social media.
Al momento le piattaforme starebbero cercando di arginare l'ingresso di musica prodotta con IA, ma la ragione di questo sta nella co-dipendenza tossica tra queste e i grandi gruppi discografici che “possiedono” tutte le canzoni del mondo, o quasi, e quindi al momento hanno un interesse diretto nel non aprire il recinto del proverbiale pollaio di fronte alla proverbiale volpe. Basterebbe una maggiore propensione di Universal, Sony o Warner verso questi strumenti (magari sotto forma di investimenti di capitale) e tutto questo potrebbe cambiare. Per ora, la posizione dell'industria è contraria allo sfruttamento non riconosciuto dai servizi di generazione musicale. E forse - si spera - non basteranno tutti i soldi del mondo per riconoscere il giusto compenso al tipo di plagio sistematico e meccanizzato che Suno o Udio esercitano quotidianamente.
Certo, non basta la scusa di Spotify che “la gente vuole così”, che è completamente apatica e disinteressata a ciò che ascolta, purché lo ascolti. Prima di tutto, perché l'omogeneità dell'offerta fa calare la domanda - perfino una fabbrica di hit come il Festival di Sanremo sembra aver perso questa capacità, come scrivevo in un articolo su Fanpage. E poi, perché la musica resta prima di tutto uno spazio per le connessioni umane. Ed è in questo contesto, esacerbato dalla precarietà del settore musicale, che emergono sempre più voci contrarie all’utilizzo di intelligenze artificiali nella musica. Almeno, fra gli ascoltatori più attivi e consapevoli.
All’inizio dell’anno parlavo del fatto che al centro del dibattito culturale e musicale del 2025 ci sarebbe stato l’uso delle IA generative, e settimana dopo settimana questa (facile) previsione è stata confermata. Andando anche oltre le mie aspettative.
Pensavo, infatti, che la questione avrebbe riguardato principalmente il cosiddetti AI slop, la sbobba prodotta da strumenti come Midjourney, Dall-E o Sora che sempre più spesso affolla la nostra realtà: la vedi nei manifesti di concerti e festival e nei buongiornissimi dei gruppi Whatsapp; la vedi nei post che anche artisti pubblicano credendo di aver fatto qualcosa di simpatico e innocuo e nei contenuti propagandistici e distopici pubblicati da Donald Trump.
Stiamo parlando, a questo punto, di prodotti generati con intelligenze artificiali a supporto del prodotto musicale: videoclip, copertine, contenuti promozionali. E contro questo utilizzo si è espressa chiaramente una parte del pubblico, quantomeno nei mercati dove la cultura pop è presa sul serio. È iniziata, insomma, l’epoca del backlash contro questo strumento. A settembre dello scorso anno i primi artisti di un certo peso a pagare per questo uso dell’IA furono i Tears for Fears, che ne fecero uso con la collaborazione del “digital creator Vitalie Burcovschi” per la copertina del disco Songs for a Nervous Planet.
I commenti più popolari sotto quel post furono decisamente e inequivocabilmente negativi, al punto da convincere la band a diramare un comunicato di spiegazioni. Ma le ingenuità di questo genere non sono finite con questo caso, e hanno interessato artisti di ogni levatura e ambiente.
A gennaio, il componente degli Animal Collective che risponde al nome d’arte Panda Bear (Noah Lennox) ha pubblicato un video per il singolo Ferry Lady diretto da Danny Perez nel quale l’uso di IA generativa è palese: anche in questo caso i commenti dei fan si sono fatti sentire, passando dal più semplice (ed esplicito) disprezzo dell’IA a più elaborate valutazioni sull’impatto che questo genere di espedienti avrà nella quantità di lavoro per gli animatori che possono contare sui videoclip musicali per arrotondare il salario.
A questo punto, esempi del genere si sprecano nell’ambito anglosassone: a dicembre è successo alla popolarissima band metalcore inglese Bring Me The Horizon su TikTok; a febbraio il backlash ha toccato la band di Julian Casablancas, The Voidz, peraltro per una campagna di video che sta proseguendo, e generando ulteriore sconcerto a ogni uscita; a marzo, J-Hope dei coreani BTS ha dovuto subire le critiche degli organizzatissimi fan della band, la cosiddetta ARMY, per il video di Sweet Dreams che segnava il suo ritorno sulle scene dopo il servizio militare.
Se può interessare, questo backlash non è ancora arrivato in Italia. A gennaio un video di MYSS KETA su Instagram ha prodotto quasi solo commenti estasiati. Lo stesso si può dire di una breve clip usata di recente sui social e su Spotify da Giorgio Poi per promuovere il suo (peraltro bellissimo) singolo Uomini contro insetti. L'artista ha avuto il buon senso di pubblicare un videoclip ufficiale interamente fatto dalla mano dell'uomo: questo ci suggerisce che i contenuti sputati fuori da un prompt siano considerati degni solo per funzioni "di servizio", eppure non sono certo che la distinzione tra content sia ormai così netta presso il pubblico: uno short di YouTube o una story di Instagram entrano nello stesso flusso di informazioni che un tempo era occupato solo da affissioni, artwork e videoclip trasmessi in TV. In ogni caso, di fronte a questi video mostruosi non si è vista quasi nessuna critica: in Italia, insomma, il tema non è ancora arrivato. Ma arriverà. Come si dice in questi casi, bisogna seguire i soldi.
Da qualche tempo Microsoft sta cercando di accreditare le sue intelligenze artificiali Azure e Copilot come forze positive per i creativi. Collaborazioni con artisti popolari come Coldplay, Little Simz e Laufey si sono succedute in ambiti tutto sommati immuni alle ritorsioni pubbliche dei fan: rispettivamente, un’iniziativa di user generated content; un’installazione interattiva a Londra e NYC; e i visual per una serie di video performance live. In quest’ultimo caso l’intervento dell’IA è talmente banale e in linea con qualsiasi animazione vista ai concerti, che gran parte dei fan avrà probabilmente pensato che la citazione di Microsoft nel titolo fosse solo per una qualche partnership commerciale.
Quando, però, l’IA si nota, il pubblico reagisce. Di recente, la producer e cantante coreana di base a New York Yaeji, ha partecipato a una serie di iniziative di Microsoft intitolate Artifacts. Nel suo caso, si è trattato di un aiutino per gli effetti speciali del video del suo ultimo singolo, Pondeggi.
Realizzato peraltro da un veterano e visionario del videoclip come Andrew Thomas Huang (suo era il capolavoro visivo che accompagnava cellophane di FKA twigs), il video di Pondeggi si avvalora dell’intelligenza artificiale come pipeline tool per gestire una serie di input da diverse fonti, o almeno così dice il regista. Perfino in questo contesto, dove - apparentemente - non sono stati violati i diritti d’autore di alcun artista visuale, l’IA stona. Specie se si considera l’intenso lobbismo delle aziende che vendono al pubblico questi strumenti “miracolosi” per ottenere legislazioni più favorevoli e lassiste.
OpenAI (e quindi, di nuovo, indirettamente Microsoft che ne controlla il 49% delle azioni) è lo sponsor del video di LIBERATO Turnà, che si vanta di essere “il primo videoclip realizzato in Italia usando Sora nell’ambito dell’Alpha Artist Program”. Con la giusta motivazione economica, anche un artista che affidava gran parte della sua comunicazione al medium video grazie agli eccellenti lavori scritti e girati da Francesco Lettieri opta per un servizio che consente di creare content animato semplicemente da prompt. All’occhio inesperto il risultato potrebbe sembrare comunque sorprendente e magico, ma uno strumento che può produrre un esito soltanto pescando da qualcosa che è stato già detto e scritto, non può far altro che scaturire cliché, per quanto laccati della stessa estetica dell’estrema destra globale.
Così come il “sogno” di Donald Trump è una Striscia di Gaza che assomiglia a mille altri resort di lusso sparsi sul pianeta, non luoghi di puro consumo per chi capita dal lato giusto della storia, allo stesso modo la Napoli di Turnà non ha nulla di nuovo da dirci, nel suo realismo magico privo di qualsiasi realismo. Al solo digitare di un comando, un progetto che si era affermato per la sua capacità di raccontare una Napoli altra che fa tesoro della sua storia per vivere nel presente, aveva invece aperto le cateratte dei luoghi comuni: gli spaghetti; lo stadio Maradona; il presepe; i cornetti; il sangue di San Gennaro; il Vesuvio; Pulcinella; tutto distorto e miscelato nel frullatore dei buongiornissimi. Eppure, anche qui, il risultato è stato opposto a quello che si registra fuori dall’Italia: meraviglia, entusiasmo, ammirazione.
Un giorno, però, l’alfabetizzazione visuale del pubblico italiano potrebbe raggiungere quella degli altri paesi ricchi del mondo. E a quel punto l’IA potrebbe essere percepita come oggi una parte ampia (e ugualmente disinformata) della popolazione parla di autotune: come un raggiro, un trucco, un inganno; un modo per arrivare cinicamente al risultato senza lo sforzo.
Non è difficile immaginare che, giunti a queste circostanze estreme, ci ritroveremo con artisti che si vanteranno pubblicamente di non usare IA, proprio come si vantano di non usare pitch correction. L’IA, quindi, sarà uno status e un contro-status, per distinguere tra buoni e cattivi, in una visione inutilmente semplificata di una realtà che meriterebbe più trasparenza e onestà intellettuale.
In un caso simile, infatti, si perderebbe una nuance necessaria. Perché, come nel caso di Now and Then, può esistere un’applicazione formalmente corretta dell’intelligenza artificiale, che non si accosti all’estetica dei movimenti neo-fascisti, che non appoggi implicitamente l’operato di grandi gruppi industriali dis interessati alla sostenibilità dell’arte (o dell’ambiente, per quel che vale). Basta pensare al lavoro pionieristico di Holly Herndon e Mat Dryhurst, orgogliosamente all’avanguardia nell’uso dell’AI come strada per inventare qualcosa di nuovo, ma anche categoricamente contrari all’utilizzo dei tool in commercio che, invece, invitano alla banalizzazione e alla ripetizione.
Come ha dimostrato il caso degli artisti britannici in rivolta contro il loro governo, il dibattito sul posto che l’IA vorrebbe avere nella produzione culturale è arrivato già al punto decisivo: l’estrazione illegale di materiale dal catalogo. Recentemente un nutrito gruppo di attori e musicisti ha pubblicato una lettera aperta al presidente degli Stati Uniti per opporsi ai piani preannunciati di deregulation delle gen-AI: sotto pressione di Google e OpenAI - dicono i firmatari - il governo americano vorrebbe eliminare alcune protezioni al diritto d’autore, in una maniera non troppo dissimile da quella proposta dal governo britannico.
Tra i musicisti che hanno sottoscritto questo appello, fra i nomi di Kim Gordon e Paul Simon, si legge anche Paul McCartney. Lo stesso che aveva usato un’IA per duettare con il fantasma di John Lennon. Mentre i giganti californiani promettono la pietra filosofale della creatività, è il momento di guardare con attenzione come e perché viene spinta una certa tecnologia: e, valutata per bene questa posizione, agli artisti toccherà fare una scelta sul futuro del loro mestiere.
Il vibe coding è l’arte di programmare senza scrivere codice. Ma come funziona, di preciso? Ce lo spiega Alessio Pomaro nel suo ultimo articolo.
Vi ricordate l’old web? No? Allora potreste riscoprirne la magia attraverso vecchie guide cartacee pubblicate tra il 1999 e il 2000, come ha fatto l’autrice di questo divertente post.
Tutti i segreti di iOS 17, ma proprio tutti. Related: sapete che si possono scannerizzare dei documenti con l’app File? Bene, io l’ho scoperto solo qualche giorno fa.
Con Brand24 puoi monitorare la notorietà del tuo marchio, analizzare la notorietà del brand dei tuoi concorrenti e scoprire informazioni dettagliate sui tuoi clienti.
Un’app per Mac pressoché inutile e che per questo motivo non vedevo l’ora di condividere con te: degli occhi che dalla taskbar seguono i movimenti che fai col mouse. Così de botto, senza senso.
Uso Meco già da tempo, e posso godermi le mie newsletter preferite fuori dalla casella email in tutta calma, leggendole in modo più pulito. E l’app, sia per iOS che per Android, è fatta molto bene.








