Per il terzo anno consecutivo NuvolaProject ha partecipato al progetto Performing Media! organizzato da Urban Explorer per Estate Romana.
È un percorso lungo quello che ci vede incrociare le nostre strade con Urban Experience e Carlo Infante. Molte delle performance e delle installazioni che abbiamo realizzato in questi anni sono nate proprio in occasione di eventi organizzati insieme.
Performing Media! è uno dei progetti più interessanti che ci ha visto coinvolti per ben tre edizioni consecutive. Il progetto si incardina sul concetto proprio di performing media, che lo stesso Carlo Infante sta distillando da diversi anni e di cui abbiamo parlato, insieme a lui, in un libro appena uscito “Performing Media – un futuro remoto” di cui parleremo più avanti.
Per la sua terza edizione dal 25 al 30 settembre 2022, nell’ambito di Estate Romana 2022, il progetto si è sviluppato in una ricognizione teorica ed esperienziale, ludica e partecipativa, basata sull’apprendimento dappertutto attraverso i walkabout (esplorazioni partecipate radionomadi) condotti da Carlo Infante e una serie di performance e installazioni.
Quest’anno abbiamo portato il nostro tocco tra performance, digitale e intelligenza artificiale, a spasso per il tempo fino ad arrivare a varcare i confini tra il mondo reale e quella immateriale condizione alternativa che chiamiamo metaverso.
Le prime azioni ci hanno visto animare delle passeggiate notturne sul basolato della antica Via Appia a Roma, durante le quali, con la complice assistenza della performer Simona Verrusio e il suo personaggio cyber-mitologico VJ Janus, abbiamo proiettato lungo il percorso, sui resti di antiche vestigia di mausolei e tombe romane, epigrafi, immagini e abbiamo evocato figure magiche come sibille e pizie a raccontare una parte della storia millenaria di cui quelle pietre sono state testimoni.
Abbiamo presentato, per la prima volta, delle opere digitali realizzate per il nostro progetto “Art Prophecies”, anche in NFT. La tecnica utilizzata è quella che abbiamo usato per creare opere come Il Ritratto di Cristina e Lucrezia Romana (quest’ultima presentata anch’essa per la prima volta proprio a Capo di Bove, sede del parco archeologico dell’Appia Antica) questa volta applicata a una serie di figure di sacerdotesse e pizie ritratte in importanti capolavori dell’arte, da Guercino a Raffaello, da Rossetti a Collier a Michelangelo. Sono tutte figure femminili accumunate dalla pratica di arti divinatorie, figure potenti e centrali nella vita sociale e religiosa di Greci e Romani. E proprio in greco e latino abbiamo scelto di farle parlare, con le parole e i testi originali di antiche profezie, avvalendoci per questo anche della consulenza della storica Eleonora Sandrelli e dello storico dell’arte Leonardo Catalano. Siamo partiti ancora una volta da una performance attoriale di Gaia Riposati e poi abbiamo usato diversi algoritmi di Intelligenza Artificiale per animare le opere, ottenendo un impressionante risultato visivo di forte impatto.
Così come la figura di Lucrezia Romana (affrontata per la prima volta un anno fa in occasione proprio della seconda edizione di questo stesso progetto triennale) è stata una evocazione potentissima di un racconto nero e poco ricordato della storia romana. Lucrezia Romana è infatti un personaggio, per certi versi, chiave della storia che potrebbe, secondo il racconto fatto da Tito Livio, addirittura aver accelerato il passaggio dalla monarchia alla repubblica. Moglie di Collatino sarebbe stata infatti stuprata dal figlio dell’allora re, di stirpe etrusca, Tarquinio il Superbo. Con un atto di orgoglio e coraggio avrebbe sopportato l’onta per poter raccontare al marito quello che aveva subito, prima di togliersi la vita di fronte ai suoi occhi. L’indignazione del popolo romano, quando si diffuse la notizia, avrebbe portato alle sommosse che detronizzarono l’ultimo re e portarono alla instaurazione della nuova Repubblica Romana.
Questa storia, a lungo dimenticata o quanto meno poco rappresentata per secoli, viene riscoperta nel ‘500 e in particolare due artisti producono due capolavori su questo soggetto. Due lavori diversissimi, uno infatti è un dipinto, di Cranach il Vecchio, l’altro invece è un piccolo poema scritto da William Shakespeare. Le due opere sono state create a distanza di pochi anni, ma ci sono voluti oltre 5 secoli per riunirle in una opera intensa e potentissima, una animazione digitale che ha usato la forza visiva del dipinto di Cranach e i versi del Bardo, attraverso ancora una volta la straordinaria performance attoriale di Gaia Riposati e la potenza di algoritmi di intelligenza artificiale, per ridare vita alla figura di Lucrezia Romana, che ha potuto finalmente raccontare la propria storia di fronte a un pubblico, sulle stesse strade e sulle mura simbolo di quel mondo che ha visto accadere quei fatti.
Ancora una volta la creatività, l’immaginazione e un tocco di arte digitale ci hanno permesso di piegare il tempo e far vivere a un pubblico rapito e attentissimo, una esperienza potente e unica, incontrare personaggi dipinti secoli prima e raccontati millenni fa, li hanno visti animarsi e parlare, per aprire dei tunnel temporali, tra arte, racconto e Storia, proiettati sulle quelle pietre che li hanno visti probabilmente muoversi al tempo.
Al Parco Archeologico dell’Appia Antica si è svolto un Experience-lab con brainstorming e walkabout su L’arte dello spettatore. La nuova rete del valore, tra partecipazione attiva e blockchain insieme a Communia-Rete per i Beni Comuni e WREP Media Company.
In questa occasione abbiamo presentato i risultati del nostro workshop per il corso di Carlo Infante sul Performing Media nell’ambito del corso di laurea magistrale in Design Comunicazione Visiva e Multimediale del Prof. Luca Ruzza al Dipartimento Pianificazione, Design, Tecnologia dell’Architettura dell’Università degli Studi di Roma Sapienza. In questo corso abbiamo previsto come esito, forse per la prima volta in un corso universitario italiano, la produzione di un artefatto NFT. Una occasione per introdurre gli studenti a queste tematiche affrontandole da un punto di vista più complesso e meno ludico e superficiale di quello a cui la percezione comune relega questa tecnologia, sfidandoli a sfoderare creatività e immaginazione, a comprendere i possibili sviluppi e le implicazioni che le nuove tecnologie del web 3.0 potranno portare in un futuro quanto mai prossimo e che avrà un forte impatto sul loro ambito lavorativo e non solo.
L’incontro è proseguito con interventi, tra gli altri, di Igor Scaglioli e Giorgio Filosto di WREP e di Maurizio Crocco.
Ma c’era ancora un viaggio da fare, questa volta non temporale, ma dimensionale. varcare la dimensione fisica, reale ed entrare in quella impalpabile e virtuale del metaverso.
In un incontro che si è tenuto all’Accademia Nazionale di Danza, a Roma, si è parlato di smaterializzazione della performance. Ariella Vidach e Claudio Prati di AiEP hanno dato una dimostrazione di come il corpo, grazie a tecniche ormai consolidate come il motion capture, qui realizzato utilizzando in leggerezza un sistema kynect, possa animare un avatar incorporeo, trasportando le azioni dal mondo fisico, appunto, a quello virtuale.
NuvolaProject ha affrontato invece il tema di come trasportare le parole, le emozioni e le intenzioni nel metaverso. Da incorporeo a incorporeo, ma su due piani diversi.
Proprio utilizzando la nostra installazione Nuvola, qui in versione digitale, e un tocco di intelligenza artificiale, abbiamo continuato il lavoro su quegli “ambienti sensibili” già oggetto di studio e sperimentazione da oltre 40 anni, ma che fino a pochissimo tempo fa era limitato però solo alla “sensibilità” ovvero alla capacità di percepire la presenza e le azioni fisiche, attraverso l’uso di sensori, quindi in grado di “sentire” la presenza dell’uomo. Adesso però quel termine “sensibile” vogliamo avvicinarlo al “sensitive” anglosassone, una accezione più ampia, più simile al nostro “consapevole”. Sistemi e installazioni quindi in grado non solo di “sentire” ma in qualche modo di “comprendere”. Questo permette di interagire non solo quindi con la fisicità del corpo o dei suoni emessi, ma anche con l’incorporeo di concetti come “intenzioni” ed “emozioni”, comprese dai sistemi di AI e trasportate nel metaverso tradotte in reazioni e azioni di avatar e oggetti digitali.
Questo è quello che è accaduto con la performance, che ancora una volta ha visto protagonista Gaia Riposati, la cui voce, emozioni e intenzioni sono state captate, recepite e, per quanto possibile, capite da algoritmi che hanno poi distillato sotto forma di animazioni di luci e colori, le reazioni dirette alle emozioni rilevate.
Non è magia, sono algoritmi legati a quella branca della Intelligenza Artificiale che va sotto il nome di Natural Language Processing (NLP), ovvero la capacità di questi sistemi sintetici di comprendere il parlato naturale, in particolare abbiamo usato un processo di Sentiment Analysis, ovvero il rilevamento delle emozioni dal testo parlato. Di solito lo si fa su enormi quantità di dati per estrarre informazioni statistiche, noi lo abbiamo fatto sul parlato in tempo reale, ottenendo quindi una reazione quasi istantanea al sentimento che la macchina ha percepito ascoltando il testo recitato dalla performer. Questo consente di creare una coreografia digitale, in cui suoni, colori, animazioni e nuvole di parole, si muovono e reagiscono all’umano sul palco. In uno scambio più equilibrato di collaborazione, diventando quindi non semplici strumenti, ma protagonisti dell’azione scenica. È questo un progetto/concetto su cui stiamo lavorando da anni, dai primi esperimenti fatti all’Università Sapienza di Roma, ad altri eventi più recenti.
La tecnologia, la creatività e l’immaginazione quindi il tocco di NuvolaProject per trasportare il mondo incorporeo delle emozioni e dei sentimenti, nell’universo incorporeo dei bit.