Ho tanti hobby (forse troppi, potrebbe ribattere mia moglie): alcuni recenti, altri mi accompagnano da sempre. E tra questi cāĆØ la musica. Ascoltarla, ovviamente, ma anche suonarla.
Come potrai immaginare, tra lavoro, vita di coppia e ora quella da genitore, il tempo da dedicarle si ĆØ ridotto drasticamente, eppure, mi chiedo cosa succederebbe se riprendessi in mano la Fender o tornassi a smanettare sui tasti e potenziometri delle tastiere.
Il punto è che, se oggi volessi ricominciare, mi sentirei spiazzato, perché probabilmente creare musica non avrebbe più il sapore di prima. In appena 10 anni è cambiato tutto: con strumenti come Suno, Udio, Stable Audio e compagnia cantante - no pun intended - oggi è possibile generare un brano fatto e finito in pochi click. E definire fenomenali i software disponibili nel campo della produzione e missaggio è quantomeno riduttivo.
Quindi chi fa musica oggi, quale strada dovrebbe prendere? Rimpiangere il passato, oppure scegliere di abbracciare lāinnovazione, e cavalcare le rivoluzioni che lāintelligenza artificiale sta portando anche allāinterno dellāecosistema musicale?
Io mi limito a suonarla, ma cāĆØ chi, di musica, ne sa anche parlare egregiamente. E lo fa per mestiere. Ć il caso di
, giornalista ed autore della newsletter omonima che oggi ci aiuta a decriptare come il mondo della musica cambierĆ (ancora), tra sfide e opportunitĆ per gli artisti, e per tutto il settore.Qualche giorno fa, il produttore Giles Martin, figlio di George, ha spiegato per il canale YouTube di Music Radar Tech come ĆØ stata ricavata la voce di John Lennon per Now and Then.
Se non sai di cosa sto parlando, mi riferisco allāultima ācanzone dei Beatlesā (virgolette obbligatorie) pubblicata nel novembre del 2023. Per realizzare questa traccia, partita come demo casalinga registrata da John Lennon tra il 1977 e il 1979, ĆØ stato necessario ripulire il nastro originale che era gravemente disturbato.
Ed ecco entrare in scena unāintelligenza artificiale: non una qualunque, non qualcosa che si trova su mercato, ma quella creata ad hoc per conto di Peter Jackson nella lavorazione del documentario Get Back. Si tratta di un programma addestrato sulle voci dei quattro Beatles, e che ĆØ stato in grado di separare queste voci dagli audio delle riprese che furono effettuate durante le lavorazioni del disco Get Back (poi diventato, in breve, quello che conosciamo come Let It Be). Da una singola traccia audio, con le voci, i rumori ambientali e le parti suonate accavallate una sullāaltra, si sono ottenute tracce separate, che quindi ĆØ stato facile mixare in modo tale da rendere più facilmente intellegibile ciò che accadde in quei giorni di scrittura e registrazione.
Un portento tecnologico, senza dubbio, che alza lāasticella su un tipo di software peraltro giĆ esistente - qui cāĆØ un articolo accademico del 2019 sul tema. Si può discutere infinitamente a livello ermeneutico e deontologico su questo strumento (se ti interessa lāargomento, ne avevo parlato qui). Ma non si può certo confondere lāIA di Get Back e di Now and Then con le intelligenze artificiali generative che si stanno affacciando in modo sempre più prepotente ed eticamente discutibile sul mercato culturale tutto, musica compresa.
Eppure, nel titolo del video di cui ti parlavo, cāĆØ giĆ un segnale di qualcosa che sta accadendo nella percezione delle IA generative. Giles Martin chiarisce (demystifies) la AI usata per Now and Then dei Beatles: āLāIA non crea la voce di Johnā. Il che dice molto. Come mai, un anno e mezzo dopo lāuscita della canzone e un mese dopo la vittoria (discutibile) di un Grammy da parte della stessa, uno dei responsabili di quel prodotto viene a tranquillizzarci sulle intelligenze artificiali? Forse perchĆ© il dibattito intorno alla questione si sta scaldando enormemente, ed ĆØ arrivato il momento in cui gli artisti devono fare una scelta.
Molti di loro lāhanno giĆ fatta. Forse ti ĆØ giunta la notizia che mille artisti britannici (tra cui Kate Bush, Damon Albarn, Jamiroquai, i Pet Shop Boys e cosƬ via) hanno partecipato a unāazione di protesta contro la proposta di legge del governo del Regno Unito che, di fatto, darebbe molta libertĆ alle aziende che vendono servizi di IA generativa musicale (tipo Suno o Udio). I loro algoritmi, che senza larghi repertori di informazioni (in questo caso musicali) varrebbero poco o nulla, sarebbero cosƬ autorizzati a pescare dalle opere degli artisti, a meno che questi ultimi non facciano un esplicito opt-out, cioĆØ non lo vietino espressamente.
Al di lĆ del paternalismo miserabile di questo meccanismo (chi non fa opt-out merita di essere derubato, come chi non chiude a chiave la porta di casa?), si tratta di unāammissione di debolezza da parte di chi dovrebbe tutelare i nostri diritti: il colosso tecnologico ha vinto ancora e gli Stati possono solo arrendersi, sembra dire il governo di Londra. Lāennesima cessione di sovranitĆ allo strapotere dei multimiliardari californiani sul sistema culturale e lāimpianto sociale, gli stessi miliardari che, dopo aver fatto disruption del mondo dellāinformazione e mille altri servizi che sono stati notoriamente enshittificati nellāultimo decennio, ora hanno posato gli occhi sulla musica.
Lāazione dimostrativa degli artisti UK ĆØ stato un disco silenzioso. Come a dire che il futuro immaginato da questi rapaci del capitalismo e da questi legislatori pavidi ĆØ un futuro nel quale gli artisti non servono più: un incubo culturale di gravitĆ orwelliana, ma anche una scelta autolesionista visto lāimpatto economico che il pop ha sul bilancio del Regno Unito.
Ora, tornando ai Beatles: sicuramente qualche pasticcione allāepoca avrĆ pure scritto che lāintelligenza artificiale aveva creato la voce di John, non lo metto in dubbio. Per fare Now and Then, come dicevo, si ĆØ usata una versione molto avanzata e sofisticata di un software che giĆ esiste per la separazione dei suoni. Ne parlavo precisamente nel post della mia newsletter Pucci, ai tempi.
Se lo si affronta in modo onesto, il punto del dibattito non ĆØ come ma perchĆ© ĆØ stato usato questo strumento per fare una nuova canzone ādei Beatlesā. Se devo usare una tecnologia addestrata per riconoscere la voce di una persona in mezzo a una cacofonia di rumori, per poterla estrarre e āripulireā, e cosƬ ricavare una traccia musicale in absentia della persona responsabile (morta oltre 40 anni prima) cāĆØ qualcosa di profondamente perverso nel nostro rapporto con il passato e con la creativitĆ . Per non parlare del nostro modo di avvicinarci a una tecnologia dalle potenzialitĆ immense.
Il video di Giles Martin si apre con una fetta di torta: quello che abbiamo fatto - dice il produttore - è tornare agli ingredienti originali a partire dalla torta. Ma questo non si può fare in natura, nel senso che va contro le leggi della fisica. Forse un giorno la scienza riuscirà a ricreare un uovo a partire da una frittata, ma quello che è stato fatto con Now and Then è molto meno magico. Meno alchimia, più marketing. Meno pietra filosofale, più return of investment. Visto che per il documentario Get Back è stato creato uno strumento molto efficace per ricavare le singole voci parlanti dei Beatles, tanto valeva usare quello strumento per farci qualcosa in più.
Non ĆØ il come ma il perchĆ©. FinchĆ© non ci metteremo a un tavolo a parlare di questo e butteremo la palla in tribuna accusando di luddismo ogni critica, resterĆ soltanto una grande voragine. Da una parte, chi vorrebbe spremere ogni centesimo di guadagno dal passato, invalidando implicitamente ogni contributo contemporaneo alla cultura pop, e certificando il nostro statuto di civiltĆ tecnocratica, capace solo di amministrare un valore residuo, nella speranza che non si esaurisca mai. Dallāaltra, chi prova a vivere nel presente e a problematizzarlo.
E per poter parlare di IA nella musica bisogna problematizzare questa tecnologia. Unāintelligenza artificiale generativa, infatti, non crea nĆ© inventa ma remixa. La distinzione non ĆØ una raffinatezza semantica: allo stato dellāarte, questi strumenti consentono solo di formulare risposte giĆ conosciute, combinando ciò che trovano in un vasto catalogo di dati, cioĆØ nel nostro caso canzoni (protette da diritto dāautore, fino a prova contraria), in base alla richiesta di chi digita il prompt. Questo significa che questi strumenti non potranno far altro che riproporre combinazioni differenti di soluzioni giĆ sentite. E qualcuno si ĆØ giĆ messo allāopera.
In un articolo che avevo scritto per Quants Magazine nellāagosto 2023 parlavo delle mosse di grossi gruppi dāinteresse allāinterno della musica ambient di tipo mood-oriented, pensata cioĆØ per scatenare una determinata reazione emotiva nellāascoltatore - tendenzialmente, il relax - che progettavano di realizzare attraverso o con lāaiuto di intelligenze artificiali. Oggi sappiamo che solo su Deezer ogni giorno vengono caricate (e parzialmente rimosse) 10mila nuove tracce generate con gen-AI. Possiamo ipotizzare che su Spotify e altre piattaforme avvenga un simile sversamento di musica fake. Se arrivano in questi numeri, ĆØ perchĆ© le piattaforme sono state costruite proprio con quel tipo di musica in mente: di servizio, non-umana, esclusivamente per la soddisfazione di un bisogno immediato (di relax, di concentrazione, di eccitazione). CioĆØ, per un ascolto passivo.
Contrariamente a quanto potremmo essere portati a pensare, lāuso passivo delle piattaforme non ĆØ un tratto naturale dei nostri cervelli. Semmai, ĆØ lāesito calcolato di una precisa architettura dei servizi di streaming. Questo vale certamente per Spotify, come ha rivelato la giornalista americana Liz Pelly nel suo libro Mood Machine: lāobiettivo a lungo termine dellāazienda di Daniel Ek sarebbe sempre stato quello di convincerci ad ascoltare le canzoni che Spotify suggerisce, e spingerci verso un utilizzo inerme della piattaforma; in questo modo Spotify avrebbe potuto inserire nel flusso di ascolto anche tracce prodotte allāesterno del sistema discografico (e quindi fuori dalla protezione dei diritti, cioĆØ a costo molto ridotto per lāazienda). Da questa storia intravediamo i contorni di una precisa missione: esautorare sia artisti sia ascoltatori del loro potere decisionale, e costruire un futuro in cui dalla musica (o quello che sarĆ ) potranno trarre beneficio solo i proprietari delle piattaforme. Praticamente, fare alla musica quello che ĆØ stato fatto al giornalismo dai social media.
Al momento le piattaforme starebbero cercando di arginare l'ingresso di musica prodotta con IA, ma la ragione di questo sta nella co-dipendenza tossica tra queste e i grandi gruppi discografici che āpossiedonoā tutte le canzoni del mondo, o quasi, e quindi al momento hanno un interesse diretto nel non aprire il recinto del proverbiale pollaio di fronte alla proverbiale volpe. Basterebbe una maggiore propensione di Universal, Sony o Warner verso questi strumenti (magari sotto forma di investimenti di capitale) e tutto questo potrebbe cambiare. Per ora, la posizione dell'industria ĆØ contraria allo sfruttamento non riconosciuto dai servizi di generazione musicale. E forse - si spera - non basteranno tutti i soldi del mondo per riconoscere il giusto compenso al tipo di plagio sistematico e meccanizzato che Suno o Udio esercitano quotidianamente.
Certo, non basta la scusa di Spotify che āla gente vuole cosƬā, che ĆØ completamente apatica e disinteressata a ciò che ascolta, purchĆ© lo ascolti. Prima di tutto, perchĆ© l'omogeneitĆ dell'offerta fa calare la domanda - perfino una fabbrica di hit come il Festival di Sanremo sembra aver perso questa capacitĆ , come scrivevo in un articolo su Fanpage. E poi, perchĆ© la musica resta prima di tutto uno spazio per le connessioni umane. Ed ĆØ in questo contesto, esacerbato dalla precarietĆ del settore musicale, che emergono sempre più voci contrarie allāutilizzo di intelligenze artificiali nella musica. Almeno, fra gli ascoltatori più attivi e consapevoli.
Allāinizio dellāanno parlavo del fatto che al centro del dibattito culturale e musicale del 2025 ci sarebbe stato lāuso delle IA generative, e settimana dopo settimana questa (facile) previsione ĆØ stata confermata. Andando anche oltre le mie aspettative.
Pensavo, infatti, che la questione avrebbe riguardato principalmente il cosiddetti AI slop, la sbobba prodotta da strumenti come Midjourney, Dall-E o Sora che sempre più spesso affolla la nostra realtà : la vedi nei manifesti di concerti e festival e nei buongiornissimi dei gruppi Whatsapp; la vedi nei post che anche artisti pubblicano credendo di aver fatto qualcosa di simpatico e innocuo e nei contenuti propagandistici e distopici pubblicati da Donald Trump.
Stiamo parlando, a questo punto, di prodotti generati con intelligenze artificiali a supporto del prodotto musicale: videoclip, copertine, contenuti promozionali. E contro questo utilizzo si ĆØ espressa chiaramente una parte del pubblico, quantomeno nei mercati dove la cultura pop ĆØ presa sul serio. Ć iniziata, insomma, lāepoca del backlash contro questo strumento. A settembre dello scorso anno i primi artisti di un certo peso a pagare per questo uso dellāIA furono i Tears for Fears, che ne fecero uso con la collaborazione del ādigital creator Vitalie Burcovschiā per la copertina del disco Songs for a Nervous Planet.
I commenti più popolari sotto quel post furono decisamente e inequivocabilmente negativi, al punto da convincere la band a diramare un comunicato di spiegazioni. Ma le ingenuità di questo genere non sono finite con questo caso, e hanno interessato artisti di ogni levatura e ambiente.
A gennaio, il componente degli Animal Collective che risponde al nome dāarte Panda Bear (Noah Lennox) ha pubblicato un video per il singolo Ferry Lady diretto da Danny Perez nel quale lāuso di IA generativa ĆØ palese: anche in questo caso i commenti dei fan si sono fatti sentire, passando dal più semplice (ed esplicito) disprezzo dellāIA a più elaborate valutazioni sullāimpatto che questo genere di espedienti avrĆ nella quantitĆ di lavoro per gli animatori che possono contare sui videoclip musicali per arrotondare il salario.
A questo punto, esempi del genere si sprecano nellāambito anglosassone: a dicembre ĆØ successo alla popolarissima band metalcore inglese Bring Me The Horizon su TikTok; a febbraio il backlash ha toccato la band di Julian Casablancas, The Voidz, peraltro per una campagna di video che sta proseguendo, e generando ulteriore sconcerto a ogni uscita; a marzo, J-Hope dei coreani BTS ha dovuto subire le critiche degli organizzatissimi fan della band, la cosiddetta ARMY, per il video di Sweet Dreams che segnava il suo ritorno sulle scene dopo il servizio militare.
Se può interessare, questo backlash non è ancora arrivato in Italia. A gennaio un video di MYSS KETA su Instagram ha prodotto quasi solo commenti estasiati. Lo stesso si può dire di una breve clip usata di recente sui social e su Spotify da Giorgio Poi per promuovere il suo (peraltro bellissimo) singolo Uomini contro insetti. L'artista ha avuto il buon senso di pubblicare un videoclip ufficiale interamente fatto dalla mano dell'uomo: questo ci suggerisce che i contenuti sputati fuori da un prompt siano considerati degni solo per funzioni "di servizio", eppure non sono certo che la distinzione tra content sia ormai così netta presso il pubblico: uno short di YouTube o una story di Instagram entrano nello stesso flusso di informazioni che un tempo era occupato solo da affissioni, artwork e videoclip trasmessi in TV. In ogni caso, di fronte a questi video mostruosi non si è vista quasi nessuna critica: in Italia, insomma, il tema non è ancora arrivato. Ma arriverà . Come si dice in questi casi, bisogna seguire i soldi.
Da qualche tempo Microsoft sta cercando di accreditare le sue intelligenze artificiali Azure e Copilot come forze positive per i creativi. Collaborazioni con artisti popolari come Coldplay, Little Simz e Laufey si sono succedute in ambiti tutto sommati immuni alle ritorsioni pubbliche dei fan: rispettivamente, unāiniziativa di user generated content; unāinstallazione interattiva a Londra e NYC; e i visual per una serie di video performance live. In questāultimo caso lāintervento dellāIA ĆØ talmente banale e in linea con qualsiasi animazione vista ai concerti, che gran parte dei fan avrĆ probabilmente pensato che la citazione di Microsoft nel titolo fosse solo per una qualche partnership commerciale.
Quando, però, lāIA si nota, il pubblico reagisce. Di recente, la producer e cantante coreana di base a New York Yaeji, ha partecipato a una serie di iniziative di Microsoft intitolate Artifacts. Nel suo caso, si ĆØ trattato di un aiutino per gli effetti speciali del video del suo ultimo singolo, Pondeggi.
Realizzato peraltro da un veterano e visionario del videoclip come Andrew Thomas Huang (suo era il capolavoro visivo che accompagnava cellophane di FKA twigs), il video di Pondeggi si avvalora dellāintelligenza artificiale come pipeline tool per gestire una serie di input da diverse fonti, o almeno cosƬ dice il regista. Perfino in questo contesto, dove - apparentemente - non sono stati violati i diritti dāautore di alcun artista visuale, lāIA stona. Specie se si considera lāintenso lobbismo delle aziende che vendono al pubblico questi strumenti āmiracolosiā per ottenere legislazioni più favorevoli e lassiste.
OpenAI (e quindi, di nuovo, indirettamente Microsoft che ne controlla il 49% delle azioni) ĆØ lo sponsor del video di LIBERATO TurnĆ , che si vanta di essere āil primo videoclip realizzato in Italia usando Sora nellāambito dellāAlpha Artist Programā. Con la giusta motivazione economica, anche un artista che affidava gran parte della sua comunicazione al medium video grazie agli eccellenti lavori scritti e girati da Francesco Lettieri opta per un servizio che consente di creare content animato semplicemente da prompt. Allāocchio inesperto il risultato potrebbe sembrare comunque sorprendente e magico, ma uno strumento che può produrre un esito soltanto pescando da qualcosa che ĆØ stato giĆ detto e scritto, non può far altro che scaturire clichĆ©, per quanto laccati della stessa estetica dellāestrema destra globale.
CosƬ come il āsognoā di Donald Trump ĆØ una Striscia di Gaza che assomiglia a mille altri resort di lusso sparsi sul pianeta, non luoghi di puro consumo per chi capita dal lato giusto della storia, allo stesso modo la Napoli di TurnĆ non ha nulla di nuovo da dirci, nel suo realismo magico privo di qualsiasi realismo. Al solo digitare di un comando, un progetto che si era affermato per la sua capacitĆ di raccontare una Napoli altra che fa tesoro della sua storia per vivere nel presente, aveva invece aperto le cateratte dei luoghi comuni: gli spaghetti; lo stadio Maradona; il presepe; i cornetti; il sangue di San Gennaro; il Vesuvio; Pulcinella; tutto distorto e miscelato nel frullatore dei buongiornissimi. Eppure, anche qui, il risultato ĆØ stato opposto a quello che si registra fuori dallāItalia: meraviglia, entusiasmo, ammirazione.
Un giorno, però, lāalfabetizzazione visuale del pubblico italiano potrebbe raggiungere quella degli altri paesi ricchi del mondo. E a quel punto lāIA potrebbe essere percepita come oggi una parte ampia (e ugualmente disinformata) della popolazione parla di autotune: come un raggiro, un trucco, un inganno; un modo per arrivare cinicamente al risultato senza lo sforzo.
Non ĆØ difficile immaginare che, giunti a queste circostanze estreme, ci ritroveremo con artisti che si vanteranno pubblicamente di non usare IA, proprio come si vantano di non usare pitch correction. LāIA, quindi, sarĆ uno status e un contro-status, per distinguere tra buoni e cattivi, in una visione inutilmente semplificata di una realtĆ che meriterebbe più trasparenza e onestĆ intellettuale.
In un caso simile, infatti, si perderebbe una nuance necessaria. PerchĆ©, come nel caso di Now and Then, può esistere unāapplicazione formalmente corretta dellāintelligenza artificiale, che non si accosti allāestetica dei movimenti neo-fascisti, che non appoggi implicitamente lāoperato di grandi gruppi industriali dis interessati alla sostenibilitĆ dellāarte (o dellāambiente, per quel che vale). Basta pensare al lavoro pionieristico di Holly Herndon e Mat Dryhurst, orgogliosamente allāavanguardia nellāuso dellāAI come strada per inventare qualcosa di nuovo, ma anche categoricamente contrari allāutilizzo dei tool in commercio che, invece, invitano alla banalizzazione e alla ripetizione.
Come ha dimostrato il caso degli artisti britannici in rivolta contro il loro governo, il dibattito sul posto che lāIA vorrebbe avere nella produzione culturale ĆØ arrivato giĆ al punto decisivo: lāestrazione illegale di materiale dal catalogo. Recentemente un nutrito gruppo di attori e musicisti ha pubblicato una lettera aperta al presidente degli Stati Uniti per opporsi ai piani preannunciati di deregulation delle gen-AI: sotto pressione di Google e OpenAI - dicono i firmatari - il governo americano vorrebbe eliminare alcune protezioni al diritto dāautore, in una maniera non troppo dissimile da quella proposta dal governo britannico.
Tra i musicisti che hanno sottoscritto questo appello, fra i nomi di Kim Gordon e Paul Simon, si legge anche Paul McCartney. Lo stesso che aveva usato unāIA per duettare con il fantasma di John Lennon. Mentre i giganti californiani promettono la pietra filosofale della creativitĆ , ĆØ il momento di guardare con attenzione come e perchĆ© viene spinta una certa tecnologia: e, valutata per bene questa posizione, agli artisti toccherĆ fare una scelta sul futuro del loro mestiere.
Il vibe coding ĆØ lāarte di programmare senza scrivere codice. Ma come funziona, di preciso? Ce lo spiega Alessio Pomaro nel suo ultimo articolo.
Vi ricordate lāold web? No? Allora potreste riscoprirne la magia attraverso vecchie guide cartacee pubblicate tra il 1999 e il 2000, come ha fatto lāautrice di questo divertente post.
Tutti i segreti di iOS 17, ma proprio tutti. Related: sapete che si possono scannerizzare dei documenti con lāapp File? Bene, io lāho scoperto solo qualche giorno fa.
Con Brand24 puoi monitorare la notorietĆ del tuo marchio, analizzare la notorietĆ del brand dei tuoi concorrenti e scoprire informazioni dettagliate sui tuoi clienti.
Unāapp per Mac pressochĆ© inutile e che per questo motivo non vedevo lāora di condividere con te: degli occhi che dalla taskbar seguono i movimenti che fai col mouse. CosƬ de botto, senza senso.
Uso Meco giĆ da tempo, e posso godermi le mie newsletter preferite fuori dalla casella email in tutta calma, leggendole in modo più pulito. E lāapp, sia per iOS che per Android, ĆØ fatta molto bene.