Benvenuti al secondo appuntamento di “Riavvolgi il Futuro”. Se nel nostro primo incontro abbiamo esplorato come i pixel stanno riscrivendo la storia del cinema, oggi ci immergiamo in un territorio ancora più intimo e sensoriale: la Musica.
Spesso pensiamo alla musica come a qualcosa di etereo, un’onda che fluttua nell’aria. Eppure, per oltre un secolo, la musica è stata materia. È stata solchi sulla cera, vibrazioni su lacca, e soprattutto, chilometri di nastro magnetico. Oggi, l’Intelligenza Artificiale sta agendo come un ponte temporale, permettendoci di “scavare” in quella materia per recuperare tesori che credevamo perduti. Ma per capire la portata di questo miracolo, dobbiamo tornare a quando il silenzio non esisteva e ogni nota era un rischio.
IERI: L’era del “tatto” e la magia dell’imperfezione
Prima dell’avvento del digitale, registrare una canzone era un’impresa quasi epica. Negli anni ’50 e ’60, negli studi leggendari come Abbey Road o i Motown Studios, il suono veniva impresso su pesanti bobine di nastro magnetico. Non esistevano i tasti “copia” e “incolla”. Se un produttore voleva cambiare l’ordine delle strofe, doveva armarsi di una taglierina (splicing bar), tagliare fisicamente il nastro e unirlo con un pezzetto di nastro adesivo speciale. Un millimetro di errore e la canzone era rovinata.
Questa fisicità portava con sé un’anima: il cosiddetto “calore analogico“. Ogni nastro aveva un fruscio di fondo, ogni valvola dei microfoni aggiungeva una distorsione armonica che rendeva il suono vivo, ma anche fragile. I musicisti dovevano essere perfetti: se l’orchestra sbagliava una nota al nono minuto di una sinfonia, bisognava ricominciare da capo. Era un’arte basata sul limite, dove l’uomo dominava la macchina con la forza dei polmoni e la precisione delle dita.
OGGI: Archeologia sonora e il “de-mixaggio” impossibile
Il salto verso il presente ci porta a una parola che sta cambiando la musicologia: De-mixing. Per anni, il restauro audio è stato come tentare di separare gli ingredienti di una torta già cotta: una volta mixati su nastro, gli strumenti diventavano inscindibili, rendendo impossibile correggere eventuali sbilanciamenti di volume tra voce e musica. Se la voce era troppo bassa rispetto al pianoforte, restava tale per l’eternità.
Poi è arrivato il 2023 e il caso mediatico di Now and Then, l’ultimo brano dei Beatles. Il regista Peter Jackson (lo stesso de Il Signore degli Anelli) ha messo a disposizione del progetto un sistema di AI chiamato “MAL” (in onore del loro storico assistente Mal Evans). Questa intelligenza artificiale è stata addestrata per anni a riconoscere il “timbro” unico della voce di John Lennon, distinguendolo da qualsiasi altro rumore.
Il risultato è stato scioccante: l’AI è riuscita a estrarre la voce di John da una vecchia cassetta del 1977, pulendola dal ronzio elettrico e dal pianoforte che la sovrastava. Non ha “creato” una voce finta (deepfake); ha agito come un restauratore che rimuove secoli di polvere da un affresco, restituendo al mondo un’emozione che la tecnologia dell’epoca non era stata in grado di preservare. È la tecnologia che si mette al servizio della memoria, non per sostituirla, ma per liberarla.
DOMANI: La sfida della “Composizione Aumentata” ed i concerti eterni
Guardando oltre l’orizzonte, l’AI non si fermerà al restauro. Stiamo entrando nell’era della creatività assistita. Immaginiamo software che non si limitano a eseguire ordini, ma che agiscono come “compagni di jam session”. Esistono già algoritmi capaci di analizzare la struttura armonica di un brano e suggerire un ponte o un arrangiamento d’archi che l’autore non aveva considerato.
Questo solleva interrogativi profondi: dov’è il confine tra l’ispirazione umana e il calcolo probabilistico della macchina? E ancora, siamo pronti per i “Concerti Eterni”? Gli ABBA, con il loro show Voyage, hanno già dimostrato che migliaia di persone sono disposte a pagare per vedere avatar digitali che si muovono e cantano come se avessero ancora vent’anni. Domani, potremmo vedere nuove opere composte “nello stile di” artisti scomparsi, sollevando sfide etiche e legali enormi sul diritto d’autore e sull’unicità dell’anima artistica.
Nonostante la potenza di questi strumenti, l’Intelligenza Artificiale rimane un “pennello“. Può essere il pennello più sofisticato del mondo, capace di dipingere frequenze e ricostruire voci, ma ha sempre bisogno di una mano umana che decida cosa dipingere e perché.
Riavvolgere il futuro, nel mondo della musica, significa proprio questo: usare la precisione dell’algoritmo per proteggere la fragilità del nostro passato. Perché alla fine, che sia un nastro magnetico tagliato con le forbici o un file processato da un supercomputer, ciò che conta è quel brivido che proviamo quando la musica ci tocca il cuore. E quel brivido, per fortuna, non può essere generato da nessun codice.
L'Angolo dell'Esperto: Come funziona il "De-mixing"?
L’AI non “ascolta” come noi. Trasforma il suono in un’immagine (chiamata spettrogramma). In questa immagine, la voce di un cantante ha una “forma” diversa da quella di una batteria. L’algoritmo impara a ritagliare quelle forme specifiche e a separarle, proprio come faremmo noi ritagliando delle figure da una fotografia per creare un collage. È un processo di sottrazione visiva applicato all’udito.



