AI, improvvisazione, interplay: una sfida impossibile?

Spazio per discussioni su Csound, Max/MSP, SuperCollider, Pure Data, analisi e trattamento digitale del suono, live electronics, software, ecc.
Rispondi
Yuri Refolo
Messaggi: 10
Iscritto il: giovedì 1 agosto 2019, 19:04
Contatta:

AI, improvvisazione, interplay: una sfida impossibile?

Messaggio da Yuri Refolo » sabato 5 ottobre 2019, 10:22

Mi è stato chiesto da un amico in privato se conoscessi dei tool che consentano la realizzazione di musica improvvisata ed interattiva.

In sostanza: è possibile fare una jam session con un software?

Ci penso da una vita e cerco materiale al riguardo da sempre ma mi scontro sempre con alcuni problemi.
  • Al 99% dei musicisti non gliene frega niente di una cosa del genere. Cioè: "figo, bello, grande", tre click, poi non saprebbero che farsene. Questo perché il musicista medio ha la competenza minima informatica che gli serve a postare un selfie con gli allievi e mandare curriculum a scuole ed enti concerti. Fanno eccezione i chitarristi ed i tastieristi che aggeggiano (non sempre) con pedalini e software, ma sempre in maniera molto naif.
  • Fino a poco tempo fa la potenza di calcolo necessaria per una cosa del genere era improbabile per l'umano medio. Ora volendo ci si potrebbe anche lavorare ma stiamo parlando di un campo che ancora deve raggiungere le masse.
  • Un sacco di gente ha paura di perdere il lavoro. Ovviamente uno Stanley Clarke è insostituibile (per ora) ma il bassista che fa le toniche alla cover band di Ligabue è più che sostituibile già da ora con un software. Tra un po' potremmo anche usare robot umanoidi, così magari il bassista sorride pure (basta programmarlo).
  • I luminari che fanno ricerca sperimentale nell'ambito della musica elettronica generalmente se ne fottono dei plebei: nel senso che sono tutti intenti a sviluppare l'ultrasistema cervellotico che fa tre note bio con il suono del bicchiere di cristallo di Boemia quando viene riempito di Barolo invecchiato 10 anni, ma di fare un tool che consenta di fare una jam session sugli standard, con tanto di solo, tradin' 4, fill vari ed ending... manco per il cavolo. Senza sapere che l'unico modo, nel magico e stupendo mondo neoliberista, di far prendere piede uno sviluppo tecnologico è darlo in pasto alle masse (vedi tutto quello che passa dal disco all'mp3).
  • Per il motivo di cui sopra, dato che non è un argomento che "tira", gli investitori se ne fregano altamente e di conseguenza non ci sono fondi per sviluppare tool del genere. Quindi ogni progetto rimane all'interno dell'accademia, di progetti personali, di bozze di ricerca ma poi viene archiviato e muore lì.
Per i motivi sopracitati al momento la mia ricerca si ferma a queste risorse, nella speranza che l'argomento muova un po' di interesse.

Deepjazz è stato scritto in 36 ore in una hackaton. Fantastico. Risultati eccellenti ed è qui che va la storia: però al momento non si occupa di realtime né, quindi e tantomento, di interplay. Parlando in italiano: se anche te dimezzi il tempo il batterista continua imperterrito a fare tum tum tum tum in 4. Un po' come i batteristi veri, ma col sorriso sulle labbra.

https://deepjazz.io/

Qui invece c'è un bel concerto al Vortex Jazz Club fatto di esseri viventi in carne ed ossa e musica generata da una AI che ha "studiato" su brani Jazz e non solo.

Ovviamente (come osi) non c'è manco il video, sia mai.

https://www.theverge.com/2016/10/12/132 ... p-learning

Va inserita nella mia ricerca la capacità di generare un solo di Band In A Box, che unita ai banchi suoni eccezionali dei quali è dotato quel software lo rende uno dei tool più interessanti ed a portata di tutti. Rimane ovviamente sempre il fatto che non è in grado, al momento, di interagire con altri musicisti.



Devo riconoscere anche al mio insegnante di chitarra di Conservatorio, il prof. Francesco Cuoghi, di avermi fatto partecipare come spettatore, in tempi non sospetti, ad un concerto "improvvisato" per musicisti e software (MaxMSP se non erro), almeno 15 anni fa, dove lui, un violinista ed il software (che all'epoca si impallava, ma onore al merito) "improvvisavano" insieme. Nel senso che loro seguivano dei pattern di musica (mi pare atonale, se non erro, non saprei dire se seriale) ed il sistema, tramite un microfono, ascoltava e "reagiva". Il risultato era imbarazzante dal punto di vista musicale ma grandioso dal punto di vista concettuale.

Di lì in seguito, tuttavia, non sono a conoscenza di ulteriori sviluppi applicabili in un contesto quotidiano.

Parlando in italiano: che io sappia (felicissimo di essere smentito) ad oggi esistono "solo" dei sistemi di AI che sono in grado di creare musica interessante basandosi sull'allenamento di reti neurali ascoltando ore ed ore di musica già suonata ed il loro livello qualitativo è eccezionale.

Esistono anche dei sistemi che possono realizzare musica interagendo con l'ambiente, ma per quello che mi è dato sapere non vanno oltre dei test di nicchia ed improponibili su larga scala.

L'idea interessante sarebbe riuscire a realizzare un rack che, portato in concerto, in sala prove o ad una jam session ed istruito minimamente sul contesto ("Ora facciamo Anthropology") possa prendere il posto di un musicista ("Scusateci, il batterista ha la febbre, stasera suoniamo con IMP-VS-1").

Le applicazioni sarebbero molteplici ed il margine di guadagno incommensurabile.


Se qualcuno vuole buttarsi in questa impresa, io ci sto, come sviluppatore software e come musicista.

wasubot intelligenza artificiale improvvisazione interplay.jpg
wasubot intelligenza artificiale improvvisazione interplay.jpg (100.1 KiB) Visto 281 volte

Rispondi