Seleziona una pagina

BLOG

Indagare nuovi orizzonti

Costruire competenze IA nella PA: un percorso pratico tra rischi, strumenti e casi d’uso

2 Gen, 2026

Un racconto divulgativo dell’esperienza di formazione sull’intelligenza artificiale generativa rivolta al personale della Scuola Normale Superiore e condotta da docenti interni.

L’intelligenza artificiale generativa è entrata in pochi mesi nelle pratiche quotidiane di moltissime persone: scrive, sintetizza, traduce, propone idee, aiuta a mettere ordine nei testi e nei dati. Questa velocità di adozione, impressionante se confrontata con quella di molte tecnologie del passato,  ci dice una cosa semplice: l’IA non è più “futura”, è già qui (e sta cambiando il modo in cui lavoriamo).

Nella Pubblica Amministrazione e nelle università, però, la domanda non è soltanto se usarla, ma come farlo in modo utile, responsabile e sostenibile. In questo scenario, un punto diventa centrale: l’adozione di strumenti di IA deve andare di pari passo con la costruzione di competenze interne diffuse. Non perché la formazione interna sia “migliore” di quella esterna (spesso percorsi misti sono la soluzione più efficace), ma perché, qualunque sia il modello organizzativo scelto, senza una base culturale condivisa l’IA rischia di diventare una scatola nera: potente, sì, ma difficile da governare.

È proprio da questa consapevolezza che è nata, alla Scuola Normale Superiore, l’esperienza di un corso di formazione rivolto al personale e condotto da docenti interni (Michele Fiaschi e Federico Calzolari, entrambi con esperienza di formazione  e divulgazione di strumenti IA in contesti pubblici e aziendali): un percorso divulgativo ma operativo, pensato per dare strumenti concreti a chi lavora nei servizi e deve confrontarsi con l’innovazione digitale ogni giorno. L’obiettivo era chiaro: fornire basi teoriche e indicazioni pratiche sull’uso responsabile della Gen-AI nel contesto universitario.

Perché “competenza diffusa” è la vera infrastruttura dell’IA

In una organizzazione pubblica l’IA non è (solo) una questione tecnologica: è soprattutto una questione di processi, responsabilità e qualità del servizio. Formare le persone significa metterle in condizione di:

  • valutare la qualità dei dati d’ingresso (cosa inserire, cosa evitare, cosa anonimizzare);
  • interrogare i modelli con metodo, sapendo dare contesto, vincoli e obiettivi;
  • riconoscere limiti e rischi (allucinazioni, bias, dipendenza dallo strumento);
  • verificare e non delegare ciecamente;
  • progettare processi in cui l’algoritmo accelera, ma non sostituisce il giudizio umano.

In particolare, per la PA è decisivo un principio pratico: l’IA può essere un “consigliere”, non l’unico decisore. L’uso consapevole richiede sempre un controllo umano, una responsabilità chiara e una valutazione del rischio in funzione del contesto.

Il corso: basi, rischi e casi d’uso “da ufficio”

Il percorso è stato organizzato in tre blocchi:

  1. una cornice su storia, modelli e casi di IA;
  2. principi della Gen-AI, criticità e riferimenti normativi;
  3. applicazioni e casi d’uso nella Pubblica Amministrazione.

La scelta metodologica è stata deliberata: non insegnare “il tool del momento”, ma fornire criteri e abitudini trasferibili tra strumenti diversi, perché l’ecosistema evolve rapidamente.

Uno dei temi più “spendibili” è stato quello del prompting efficace: chiarezza, contesto, formato, iterazione e tecniche più strutturate (ad esempio, scomporre un compito complesso in passaggi). L’idea di fondo è semplice ma potente: la qualità dell’input influenza la qualità dell’output.

Accanto alla tecnica, spazio alla governance e alla sicurezza: attenzione a privacy e uso di account personali, sostenibilità e divario digitale, e alla necessità di linee guida interne in coerenza con normative e indirizzi nazionali.

Metodo e materiali per continuare dopo l’aula

Il tempo a disposizione era limitato, perciò abbiamo affiancato alle lezioni un set di materiali pensato per favorire l’approfondimento individuale e rendere il corso “riusabile” nel tempo.

Oltre alle slide, abbiamo raccolto esempi di linee guida e riferimenti utili, approfondimenti più dettagliati sui temi trattati e un documento dedicato agli esercizi pratici visti durante il corso, con esempi di svolgimento e varianti (per allenarsi su prompt, verifica degli output e casi d’uso tipici dei servizi). A completamento, abbiamo anche prodotto alcuni brevi video generati con sistemi di IA, utili come micro-pillole di ripasso e come stimolo per sperimentare in autonomia.

L’IA nella PA come acceleratore: esempi concreti, non slogan

La parte più “trasformativa” di una formazione del genere è quando i concetti si agganciano ai problemi reali dei servizi. Per questo una sezione importante del corso è stata dedicata ai casi d’uso, presentati come bisogni operativi e ricadute pratiche.

Alcuni esempi:

  • redazione e riscrittura di testi: comunicazioni chiare e uniformi verso studenti, semplificazione del linguaggio, adattamento del registro per canali diversi;
  • multilinguismo e accessibilità: traduzioni e sintesi operative per interlocutori internazionali;
  • supporto al lavoro amministrativo: bozze strutturate, analisi comparativa di documenti e requisiti;
  • analisi di dati e tabelle: individuare anomalie, pattern e ricorrenze su volumi informativi estesi;
  • knowledge management e assistenti “istruiti” su documenti interni (RAG): possibilità di ottenere risposte contestualizzate su basi documentali, con maggiore controllo su privacy e qualità.

In filigrana c’è un messaggio chiaro: l’IA diventa utile quando si innesta su processi ben progettati e quando chi la usa sa distinguere tra bozza e decisione, tra suggerimento e responsabilità.

La dimensione normativa (e l’orizzonte dell’inclusione)

Parlare di IA nella PA senza parlare di regole sarebbe miope. Il corso ha affrontato il quadro normativo e le linee di indirizzo: dall’impianto dell’AI Act (approccio basato sul rischio, obblighi di trasparenza, controllo umano nei casi ad alto rischio) fino agli indirizzi nazionali che evidenziano la centralità della formazione e dell’organizzazione.

È qui che il tema della competenza diffusa si collega all’equità: senza alfabetizzazione e governance, l’IA può amplificare asimmetrie e creare una nuova disuguaglianza digitale; con un’adozione guidata e inclusiva può invece diventare un acceleratore di qualità dei servizi, accessibilità e semplificazione.

I feedback: un’esperienza apprezzata e una richiesta di “secondo livello”

I questionari di valutazione raccolti al termine delle edizioni raccontano un quadro molto chiaro: alto gradimento complessivo e valutazioni positive su coerenza, organizzazione e qualità della docenza.

Ma il dato più interessante è qualitativo: la formazione è stata percepita come un punto di partenza. Molti commenti convergono su un’esigenza concreta: dopo l’introduzione servono approfondimenti mirati, più operativi, costruiti sui diversi contesti di lavoro. In altre parole: non “un altro corso generico”, ma laboratori e moduli specifici per servizi (segreterie, comunicazione, amministrazione, supporto alla ricerca, IT), con esercitazioni guidate e casi reali.

È un segnale ottimo: significa che il corso non ha solo informato, ma ha attivato curiosità e responsabilità. Ha creato un linguaggio comune e ha reso possibile discutere di IA in modo meno ideologico e più progettuale.

Conclusione: l’IA funziona quando l’organizzazione la sa governare

L’esperienza alla Scuola Normale Superiore mostra un punto essenziale: la competenza interna non è un “optional”, è la condizione per usare bene qualunque soluzione, qualunque piattaforma, qualunque supporto formativo, interno o esterno, si scelga di attivare.

Formare significa mettere le persone in condizione di fare domande migliori, valutare dati e output, riconoscere rischi ed errori e soprattutto progettare processi in cui l’algoritmo è un alleato.

In questo senso, la nostra esperienza – realizzata con risorse interne e accolta molto positivamente – non è un traguardo, ma un avvio: la base per costruire approfondimenti per contesti, sperimentazioni controllate e, nel tempo, servizi AI utili davvero. Non per sostituire il lavoro umano, ma per valorizzarlo: rendendo l’IA un acceleratore di efficienza e inclusione, e non un nuovo fattore di disuguaglianza digitale.

Ti interessa portare questo percorso nel tuo ente?

Il corso può essere riproposto anche in una versione personalizzata, calibrata su ruoli, processi e bisogni specifici (amministrazione, comunicazione, didattica, ricerca, IT).

Possiamo costruire insieme un format modulare: una base comune (fondamenti, rischi, quadro normativo e buone pratiche) e uno o più laboratori operativi su casi d’uso reali e documentazione dell’ente, con esercizi guidati, esempi e materiali di approfondimento. Se vuoi valutare una declinazione adatta al tuo contesto, scrivimi dal sito: possiamo definire obiettivi, livello, durata e temi prioritari.

Un Esempio pratico: un video “AI-generated” di una parte del corso

Nel percorso abbiamo incluso anche una dimostrazione concreta di come strumenti di generazione video (nel nostro caso HeyGen) possano supportare la formazione: non per sostituire docenti e contenuti, ma per creare micro-lezioni, introduzioni ai moduli, pillole di ripasso e messaggi di onboarding in modo rapido e coerente. Il video che segue è stato realizzato proprio come esempio didattico: siamo partiti dalle slide del corso, abbiamo generato un testo di supporto, definito una scaletta e scelto l’avatar/voce fino alla revisione finale con i sottotitoli in italiano (la piattaforma consente una gestione multilingue)

AI generativa e pubblica amministrazione universitaria: una nuova rubrica

Una nuova rubrica per esplorare come l’AI generativa può supportare in modo consapevole, sicuro ed efficace il lavoro quotidiano negli uffici della pubblica amministrazione universitaria. Ogni due settimane, un articolo dedicato a un caso d’uso concreto: segreterie, ricerca, protocollo, comunicazione, contabilità e oltre.

Decentralized by Design: perché questo manifesto mi ha colpito

Scoprendo il manifesto Decentralized by Design, ho trovato una visione dell’intelligenza artificiale che parla di persone, non di macchine. Un approccio che rimette al centro il controllo umano e la collaborazione, e che può insegnarci molto anche nel mondo pubblico.