Non tutto ciò che suona è musica: l’inganno dell’AI

Non tutto ciò che suona è musica: l’inganno dell’AI

Questo è un articolo introduttivo sull’intelligenza artificiale nella musica. Le conseguenze culturali e formative di quanto descritto qui verranno sviluppate in un testo successivo.

Non tutto ciò che suona è musica.
Viviamo in un’epoca in cui sempre più spesso ci vengono proposti “prodotti musicali” realizzati da sistemi di intelligenza artificiale e presentati come se fossero il risultato di un atto umano.

Il problema non è se questi prodotti siano belli o brutti, il problema è un altro, molto più profondo: possiamo chiamare musica qualcosa che non attraversa un processo umano di traduzione dell’intenzione espressiva in suoni?

È necessario chiarire; in molti casi, alla base di questi prodotti esiste effettivamente un’intenzione umana: un’idea, un’immagine mentale, talvolta persino un’esigenza espressiva autentica.
Ma l’intenzione, da sola, non è ancora musica.

La musica nasce quando un’intenzione attraversa un corpo, una competenza, una responsabilità, e viene trasformata in suono attraverso un processo umano.
Quando questa traduzione viene interamente delegata a un sistema artificiale, il punto critico non è l’assenza dell’idea, ma l’assenza dell’atto realizzativo umano.

L’ascoltatore, da parte sua, continua a fare ciò che ha sempre fatto: ascolta, reagisce, immagina, quindi crea immagini interiori, e magari si emoziona.
Ma se dall’altra parte non c’è stato un processo umano che si sia assunto il compito di quella traduzione, la relazione che si instaura diventa ambigua.

In alcuni casi oggi ascoltiamo musica attribuita ad “artisti” che non esistono, pubblicata da etichette costruite interamente su contenuti generati artificialmente. Le produzioni cinematografiche e televisive iniziano a fare a meno dell’opera di compositori ed esecutori umani. L’ascoltatore o lo spettatore entra spesso in relazione con qualcosa che crede umano, spesso senza sapere che quel processo umano, in realtà, non c’è stato. Sembra che uno dei pochi spazi di “verità” ancora disponibili sia il palco.
L’inganno, quindi, non è nel suono, ma nel contesto: un sistema artificiale può produrre risultati sonori estremamente convincenti, può imitare stili, generi, timbri, strutture formali, persino ciò che comunemente viene percepito come “emotivo”. (Alcuni esempi e materiali di approfondimento sono raccolti in fondo all’articolo, per non frammentare il discorso.)

Ed è qui che nasce il problema etico.

Non tutti i processi che coinvolgono l’intelligenza artificiale, però, sono uguali: l’intelligenza artificiale può essere uno strumento accettabile quando non sostituisce una competenza musicale reale, ma ne amplifica l’operatività. Ad esempio accelerando alcune fasi di lavoro in situazioni di tempi stretti, consegne ravvicinate o nella preparazione di proposte e bozze, quando non è possibile affrontare subito un processo produttivo completo.
Esistono anche pratiche ibride in cui sistemi artificiali vengono utilizzati a partire da un processo umano già esistente, da materiali musicali reali, scelte intenzionali e competenze riconoscibili o accertate dalla storia personale del musicista. Queste pratiche non sono il centro di questa riflessione.

Il problema etico emerge quando l’intelligenza artificiale non affianca un processo umano, ma lo sostituisce, e quando questa sostituzione viene presentata come se fosse un atto espressivo umano compiuto.

Come abbiamo detto sopra, il processo creativo non si esaurisce in chi produce suoni: ogni ascoltatore attribuisce senso, crea immagini interiori, prova emozioni, completa l’opera dentro di sé.

Quando ascoltiamo musica umana, questo processo è relazionale: un essere umano esprime qualcosa, un altro essere umano lo accoglie, lo trasforma, lo vive interiormente.
L’opera artistica, in questo senso, non esiste come oggetto autosufficiente, ma come evento relazionale.

Quando ascoltiamo musica generata da una macchina in assenza di un processo umano di traduzione dell’intenzione in suono, questo rapporto si spezza: l’ascoltatore continua a fare la sua parte umana, ma lo fa in assenza di una comunicazione interumana reale.
Dall’altra parte non c’è una partecipazione espressiva riconoscibile, ma solo correlazioni statistiche, modelli, simulazioni.

L’inganno non è che i suoni “funzionino”: l’inganno è che l’ascoltatore venga portato a credere di essere in relazione con qualcuno che non esiste come soggetto espressivo o come esecutore o come realizzatore del prodotto musicale.

È importante chiarire qualcosa che è stato accennato in precedenza: questo discorso non riguarda soltanto la composizione, ma anche l’interpretazione e l’esecuzione.
L’intelligenza artificiale oggi è in grado non solo di generare strutture musicali, ma anche di simulare l’atto performativo, sostituendo la presenza corporea, il gesto, il tempo e l’assunzione di responsabilità dell’interprete umano. Quando il processo artificiale prende il posto sia di chi scrive sia di chi suona, ciò che viene meno non è una singola competenza, ma l’intera catena relazionale che rende la musica un’opera umana.

Uno stimolo sonoro non può essere automaticamente musica; per questo è necessario distinguere con chiarezza:

  • Musica: nasce quando un’intenzione espressiva umana viene tradotta in suono attraverso un processo umano, anche imperfetto.
  • Stimolo sonoro artificiale: può essere efficace, suggestivo, persino emozionante, ma non costituisce di per sé un linguaggio espressivo umano.

Che uno stimolo artificiale, quindi, possa piacere o emozionare non è in discussione: ma piacere non equivale a significare. Quindi, riassumendo, senza un processo umano che assuma la responsabilità della traduzione dell’intenzione in forma sonora, non siamo più nel campo della musica come linguaggio umano non razionale, ma in quello della simulazione percettiva.

Vorrei, per chiarire cosa intendo per processo umano, riportare un esempio concreto (per problemi di Copyright userò una mia produzione, pubblicata nel 2009 nell’album Dreaming a Human Symphony).

Il brano che segue nasce da una breve idea pianistica iniziale, al limite anche “fragile”. Da quel nucleo si è sviluppato l’intero lavoro compositivo ed esecutivo, attraverso un processo umano reale che ha coinvolto ottanta persone in carne e ossa. Non è una dimostrazione estetica, ma una testimonianza di una traduzione dell’intenzione in suono attraverso umani.

Ascolto 🎶 https://on.soundcloud.com/2MCsfzRxphFtbEH0Gu

Quando un processo artificiale, quindi, viene presentato come se fosse il risultato di un atto umano, il problema non è solo etico: è una questione di onestà nei confronti dell’ascoltatore e della relazione che la musica, come linguaggio umano, presuppone. Questa disonestà non è neutra, perché finisce per danneggiare proprio chi della musica vive davvero, chi assume su di sé il rischio, il tempo, la responsabilità di un lavoro umano, e anche gli anni di fatica necessari per acquisire le competenze che hanno reso possibile quel lavoro. Alcuni di coloro che delegano interamente all’AI la produzione sonora non dipendono affatto da essa per la propria sopravvivenza professionale, ma questa asimmetria finisce per produrre un danno che va oltre i singoli musicisti, incidendo indirettamente sul livello della musica e della cultura che una società si abitua a ricevere.

 

© Tony Carnevale

 

Link utili:

https://www.youtube.com/watch?v=LYDtNVHwGBo

https://www.youtube.com/watch?v=zGbflEzSfn8

 

Abstract (EN)

Not Everything That Sounds Is Music: The AI Deception

This introductory article reflects on AI-generated music and the ethical ambiguity created when a human expressive intention is delegated to an artificial system. The core issue is not whether the result sounds “good” or “bad”, but whether we can still call music something that does not pass through a human process of translating intention into sound, through skill, responsibility, and real embodiment.

AI can produce highly convincing outputs and can imitate style, form, timbre, and even what is commonly perceived as “emotion”. The deception is not in the sound itself, but in the context: the listener is often led to believe they are in relation with a human creator or performer, when that human process may not have existed at all. This affects not only composition, but also interpretation and performance, because AI can simulate the performative act and replace the presence, gesture, time, and responsibility of the human interpreter.

The article distinguishes between music as a human, relational language and artificial sonic stimuli that may be effective or moving, yet remain simulations without a responsible human process behind them. A concrete example is offered through an original piece that grew from a fragile piano idea into a large-scale choral and symphonic realization involving real performers. The conclusion frames the issue as one of honesty: when an artificial process is presented as human, the damage is not neutral, because it undermines those who truly live from music and indirectly lowers the cultural level a society becomes accustomed to receiving.



error: Content is protected !!