Ci sono progetti che nascono come esperimenti e finiscono per diventare uno specchio di un metodo (e di una tensione): tra intenzione e percezione, tra materiale e drammaturgia, tra tecnologia e presenza umana. Dialoghi al buio è stato questo: il tentativo di portare in scena un monologo totalmente generato con l’IA per capire fino a che punto potesse davvero reggere davanti a un pubblico teatrale.
Il 26 ottobre al Teatro Garibaldi di Palermo, nell’ambito del Prima Onda Fest, abbiamo portato in scena la prima stesura completa. È stato un traguardo e, allo stesso tempo, un punto di svolta: perché lì, ancora più chiaramente che nell’anteprima, il metodo ha mostrato con precisione dove funziona meglio e dove invece richiede più cura. E insieme ha messo a fuoco anche i nostri margini di miglioramento, restituendoci indicazioni davvero preziose.
Da dove siamo partiti (e cosa volevamo ottenere)
All’inizio l’idea era quasi limpida: usare un modello linguistico come generatore di una drammaturgia senza trasformarlo in un semplice “assistente di scrittura” da correggere a posteriori. Volevamo testare un patto più radicale: progettare il testo, non scriverlo in modo tradizionale (leggi la presentazione del progetto Dialoghi al Buio)
Il tema era quello di un dialogo tra un personaggio e la sua coscienza, monologo in tre atti. Un attore in scena e la voce interiore rappresentata da un avatar digitale con le sembianze dell’attore. Una seconda parte di sé.
Collinarea 2025: un atto solo e un pubblico che ci ha spostato il baricentro
L’anteprima al Collinarea Festival 2025 è stata il primo test reale. Ci siamo concentrati sul primo atto, abbiamo utilizzato la proposta di scenografia proposta dalla IA, realizzato un avatar digitale dell’attore e generato i video con le battute dell’avatar.
Nello studio della messa in scena abbiamo scoperto che funzionava meglio invertire le parti: ciò che il modello aveva immaginato per l’attore umano, in realtà, risultava più adatto all’avatar. È stato interessante (e per nulla scontato) che questa soluzione, poi rivelatasi efficace, sia nata proprio dall’attore: recitando quel dialogo, è stato il primo a sentire dove la distribuzione delle voci non tornava e a proporre lo scambio.
Il dibattito dopo lo spettacolo è stato fondamentale, perché ha reso esplicite alcune cose, in particolare molti non avevano capito che il testo fosse generato con l’IA (ma forse questo è stato un problema di comunicazione) e chi lo aveva intuito lo interpretava spesso come dialogo attore di un attore con un’intelligenza artificiale non ben definita (anche se nella forma di un avatar proiettato con le sembianze dell’attore) e non come dialogo interiore. In generale poi una parte del pubblico percepiva il testo come semplice, scontato, piatto.
Non lo abbiamo vissuto come una bocciatura: ci è sembrato un segnale chiaro su cosa mancasse. Se volevamo far arrivare davvero l’idea della coscienza, servivano più tensione, più stratificazione, più “necessità” teatrale. E serviva anche un’attenzione maniacale a non “vendere” l’IA come gadget narrativo.
I mesi successivi: completare due atti mancanti restando fedeli al metodo
Nei mesi successivi abbiamo ripreso tutto, con un obiettivo preciso: mettere in scena gli altri due atti e completare la drammaturgia continuando a usare l’IA come previsto nel nostro progetto iniziale.
Il lavoro è diventato davvero corale: attore, regista, io come progettista del testo e della struttura e il video artista che ha curato proiezioni e contenuti digitali. In quel periodo abbiamo capito una cosa semplice: l’IA non entra in un processo creativo come un software neutro. Entra come un interlocutore che cambia il modo di decidere. Costringe a formalizzare le richieste, produce alternative, dà la sensazione che “qualcosa di buono uscirà comunque”.
Ed è proprio questa sensazione, a volte, che può diventare pericolosa.
Kairos: l’agente GPT “aiutoregista” e il lavoro a memoria non condivisa
A un certo punto abbiamo creato Kairos, un agente GPT pensato come aiuto regista: carattere definito, tono impostato, base di conoscenza aggiornata con il testo del monologo, le nostre impressioni e le nostre richieste (comprensive dei feedback del pubblico del primo studio).
Qui è emerso un limite pratico: la memoria conversazionale non era condivisa tra i membri del gruppo (per motivi comprensibili di privacy).Quindi il lavoro è diventato così: ognuno dialogava con Kairos separatamente e, a fine giornata, raccoglievamo le evoluzioni utili per inserirle nella base di conoscenza e ripartire da lì per la giornata successiva.
In pratica, una specie di “riunione serale” in cui facevamo noi da memoria centrale dell’agente.
Il problema più frustrante: l’accondiscendenza
Il nodo più duro non è stato tecnico ma “caratteriale”: l’accondiscendenza. Kairos (come spesso succede ai modelli) tendeva a dire sì a tutto. Ogni proposta era ottima. Ogni scelta era la migliore. Anche quando contraddiceva decisioni prese il giorno prima.
A teatro questa cosa non è solo fastidiosa: è corrosiva. La costruzione scenica ha bisogno di attrito, di contraddittorio vero, di qualcuno che sappia dire: “attenzione, così stai perdendo il centro”.
Abbiamo provato a intervenire su carattere e tono del modello per ottenere risposte più critiche. Qualcosa è cambiato, ma non abbastanza: non siamo arrivati ad un “aiuto regista” davvero affidabile nel dare un feedback severo e coerente. Siamo rimasti in una zona dove l’IA produceva molto, ma non sempre produceva necessità.
La svolta: la scena come metafora di apprendimento per errore
Dentro quel percorso, però, è nata un’idea forte: strutturare l’inizio come una sorta di “training”.
Una sequenza in cui l’attore ripete movimenti, una voce fuori campo chiede di correggerli e precisarli, e sullo sfondo un video ripropone quei movimenti in modo sempre più definito (l’immagine ed il movimento migliorano progressivamente).
Per noi era un ponte perfetto: una metafora fisica dell’apprendimento per tentativi ed errori. Un modo per far sentire il “modello” che si costruisce… e poi, una volta “addestrato”, entra nel dialogo e diventa parte integrante dello spettacolo (come già avveniva nell’anteprima).
Su questa base abbiamo riscritto il monologo su due atti, la fase di apprendimento, la presa di coscienza, ed il dialogo (con gli stessi testi dello studio).
Palermo, 26 ottobre: lo spettacolo completo e i feedback che non si possono ignorare
La serata di Palermo ci ha consegnato un dato chiaro. Una contraddizione evidente: appena l’IA diventa riconoscibile, il pubblico la guarda. Anche quando l’obiettivo è far guardare dentro il personaggio.
Ma i feedback degli spettatori e degli addetti ai lavori hanno confermato una sensazione che avevamo già intercettato: il dialogo interiore non è arrivato con chiarezza e la scena è stata letta ancora come un confronto tra l’uomo e l’intelligenza artificiale mettendo in secondo piano il testo e la drammaturgia. Il fatto stesso che un attore “lavori con un’IA” continua a spaventare una parte del pubblico, creando distanza e diffidenza e finendo per distrarre. Anche la metafora del machine learning nella prima parte non è stata compresa, probabilmente perché troppo tecnica, e il fatto che molti spettatori non sappiano davvero cosa sia l’IA ha amplificato un effetto di “mistero/paura”. In fondo non volevamo fare una lezione: l’intenzione non era spiegare, ma proporre un testo generato e farlo vivere come teatro.
In sintesi l’IA smette di essere un mezzo e diventa un tema. Anche quando non lo si desidera.
Quello che ci resta: utile, ma non pienamente riuscito
Detto con sincerità: non è stato un esperimento pienamente riuscito.
Non perché “l’IA non funziona”. Ma perché, nel nostro caso, l’esito finale è risultato troppo lento in alcuni passaggi, troppo complesso nella sua architettura e soprattutto: troppo “IA-centrico” nella lettura inevitabile del pubblico
La cosa più ironica è che l’intervento umano necessario per rendere la drammaturgia più teatrale più viva, più necessaria è diventato così rilevante da far emergere un pensiero quasi inevitabile:
“Forse, a questo punto, conviene riscriverlo davvero.”
Non come rinuncia, ma come evoluzione naturale. Perché quando l’esperimento diventa teatro, chiede scelte nette. Chiede responsabilità autoriale.
Se dovessimo rifarlo domani
Se dovessimo rifarlo domani, diremmo che il valore più grande di Dialoghi al buio non sta tanto nell’aver portato in scena “un testo generato”, quanto nell’aver capito, senza ambiguità, dove il metodo comincia a scricchiolare.
Succede quando provi a far passare qualcosa di intimo, un dialogo interiore, e invece in platea arriva l’idea di un dialogo esterno con l’IA. Succede quando la tecnologia, anche senza volerlo, si sposta in avanti e si prende il centro della scena, trasformandosi nel tema al posto di essere uno strumento. E succede anche in modo più silenzioso: la generazione può offrire moltissimo materiale, ma quel “molto” non coincide automaticamente con una vera densità drammaturgica.
Alla fine, la lezione più concreta è stata questa: collaborare con un modello non significa solo produrre testo, ma costruire una relazione di lavoro fatta di memoria condivisa e contraddittorio reale e nella pratica, farlo davvero è più difficile di quanto sembri.
Eppure rifaremmo tutto, perché ora sappiamo meglio una cosa: non basta generare un testo, bisogna costruire le condizioni perché quel testo non venga letto come “esperimento”, ma come teatro.
—
Iscriviti alla mailing list
Per rimanere aggiornato iscriviti alla mailing list
