Nel corso dell’ultimo decennio l’intelligenza artificiale si è sempre più integrata in ogni aspetto delle nostre vite. Un punto di svolta nella diffusione delle tecnologie di IA è avvenuto a cavallo tra il 2022 e il 2023 con il rilascio di ChatGPT, che ha catalizzato l’attenzione mondiale attirando oltre 100 milioni di utenti nei primi mesi diventando al tempo l’applicazione con la crescita più rapida mai registrata[1]. Questa esplosione dell’utilizzo dell’IA generativa è stata dovuta a una convergenza di molteplici fattori, come i progressi delle tecnologie di deep learning, più dati a disposizione per sviluppare modelli sempre più precisi e, soprattutto, la democratizzazione di questi strumenti[2]. Questi eventi hanno perciò proiettato l’IA generativa al centro del dibattito pubblico, accelerando una riflessione sulle potenzialità trasformative di queste tecnologie, non solo per i singoli cittadini, ma anche per settori come quello educativo, sanitario, e governativo.
Per le pubbliche amministrazioni, questa accelerazione si inserisce in un contesto di pressioni crescenti. La pandemia da Covid-19 ha reso evidente la necessità di rafforzare le capacità digitali dei servizi pubblici per rispondere a una domanda in rapida evoluzione[3]. I cittadini, interfacciandosi con il settore privato sono abituati a interazioni personalizzate e immediate, e oggi si aspettano standard analoghi anche dai servizi statali. Tuttavia, le amministrazioni operano con risorse limitate e sistemi informatici che faticano a tenere il passo con l’innovazione tecnologica. Dunque, in questo scenario, l’IA generativa si presenta come un’opportunità significativa, che, adeguatamente regolamentata, può aprire prospettive concrete: dalla gestione automatizzata delle richieste dei cittadini al supporto nella redazione di documenti, dall’analisi di grandi volumi di dati alla semplificazione di procedure burocratiche complesse[4].
Le stime economiche ne confermano il potenziale. In particolare, secondo le proiezioni, l’adozione dell’IA generativa nei servizi pubblici potrebbe generare guadagni di produttività pari a 1,75 trilioni di dollari annui entro il 2033[5]. Ciononostante, le opportunità si accompagnano a interrogativi rilevanti e ricorrenti: come garantire la sicurezza e la riservatezza dei dati trattati? Come evitare che gli algoritmi perpetuino o amplifichino pregiudizi esistenti? Quale ruolo riservare alla supervisione umana nelle decisioni che incidono sulla vita dei cittadini?
L’IA generativa applicata alla Pubblica Amministrazione: ambiti e potenzialità
Sebbene i casi d’uso dell’IA generativa nel settore pubblico siano ancora relativamente recenti, emergono sempre più tendenze significative che indicano come le pubbliche amministrazioni possano trarre beneficio da queste innovazioni tecnologiche.
Innanzitutto queste possono migliorare la velocità e l’efficienza degli stessi servizi pubblici e dell’interazione con i cittadini. In particolare, i chatbot alimentati dall’IA generativa possono essere impiegati per gestire richieste di routine, rispondere a domande frequenti e indirizzare le questioni più complesse ai dipartimenti competenti. Questo approccio consente di alleggerire il carico di lavoro del personale, spesso sovraccarico, offrendo al contempo servizi personalizzati e disponibili in qualsiasi momento[6]. Inoltre, a differenza dei chatbot tradizionali, quelli basati sull’IA generativa sono in grado di gestire domande aperte su materiali più sofisticati e complessi, ampliando in modo significativo il ventaglio di richieste che possono essere processate automaticamente[7]. I chatbot non devono essere necessariamente rivolti ai cittadini. Conseguentemente, l’intelligenza artificiale trova applicazione nel campo dell’efficienza interna. Le amministrazioni pubbliche sono spesso caratterizzate da processi burocratici articolati, che risultano complessi non solo per il pubblico ma anche per gli stessi dipendenti. L’IA generativa può dunque supportare il personale attraverso la ricerca intuitiva di informazioni, l’interazione automatizzata con documenti e materiali interni, la semplificazione delle procedure di inserimento dei nuovi assunti e la riduzione dei carichi amministrativi ripetitivi[8]. In aggiunta, strumenti come Copilot possono essere usati dai dipendenti pubblici come veri e proprio assistenti, in particolare nella produzione di bozze di documenti, briefing, discorsi e guide per i cittadini, oltre che nella sintesi di grandi quantità di informazioni in modo tale da accelerare le attività di ricerca. Una frontiera emergente in questo ambito è rappresentata dai Agentic AI, ovvero sistemi di intelligenza artificiale capaci di raggiungere obiettivi specifici con una supervisione limitata[9]. A differenza dei modelli generativi tradizionali, che si limitano a produrre contenuti in risposta a una domanda, richiedendo dunque un intervento umano, gli Agentic AI hanno caratteristiche più avanzate. Innanzitutto sono autonomi, quindi in grado di eseguire attività senza supervisione costante e di perseguire obiettivi a lungo termine. Sono inoltre proattivi, in quanto possono interagire con strumenti esterni, interrogare database e raccogliere dati in tempo reale per prendere decisioni e intraprendere azioni. Possono essere specializzati per attività specifiche, operando singolarmente o in architetture multi-agente coordinate da un modello centrale. Sono adattabili, capaci di apprendere dall’esperienza e migliorare nel tempo. Infine, sono intuitivi da utilizzare, perché l’interazione avviene in linguaggio naturale, sostituendo potenzialmente interfacce software complesse con semplici comandi vocali o testuali[10]. Queste caratteristiche trasposte nel campo della pubblica amministrazione permetterebbero dunque di poter automatizzare interi flussi di lavoro, dalla gestione dei documenti all’elaborazione di pratiche, riducendo così i passaggi manuali e accelerando i tempi di risposta non solo nelle procedure interne ma anche nelle interazioni con i cittadini. Piattaforme come n8n consentono di progettare questi flussi di lavoro in modo rapido e modulare, aprendo nuove prospettive per l’efficienza dei servizi pubblici.
Vi è poi la capacità di analisi dei dati. I modelli linguistici di grandi dimensioni sono in grado di elaborare volumi di dati che in precedenza venivano analizzati separatamente e in modo manuale. Attraverso semplici richieste, l’IA può individuare connessioni tra ambiti e tematiche diverse, generare sintesi di coperture mediatiche o feedback forniti dai cittadini, fornendo così elementi utili a supportare la formazione delle politiche pubbliche e la valutazione del loro impatto. Infine, un’area di crescente interesse è il supporto allo sviluppo di software. Strumenti come GitHub Copilot vengono utilizzati per produrre, verificare e correggere codici di programmazione. Questa applicazione risulta particolarmente rilevante in un momento in cui molte amministrazioni sono impegnate nel miglioramento dei propri servizi digitali e nella dismissione di sistemi informatici obsoleti[11].
Gli ambiti di applicazione sin qui descritti non rappresentano scenari futuri, ma trovano già riscontro in esperienze concrete e già avviate da diverse amministrazioni pubbliche nel mondo. L’analisi di alcuni casi degni di nota consente di comprendere come questi strumenti vengano effettivamente implementati, quali sfide emergano nella pratica, quali risultati siano stati raggiunti e come possano essere d’esempio e ispirazione per gli altri paesi.
Tre modelli a confronto: Canada, Giappone, Portogallo
Tra le esperienze più significative emerse nel panorama internazionale, tre casi offrono prospettive complementari sull’adozione dell’IA generativa nel settore pubblico, in quanto presentano un approccio condizionato dai contesti locali, dagli obiettivi perseguiti e dalle sfide specifiche affrontate: la città di Kelowna in Canada, il Governo Metropolitano di Tokyo e l’Agenzia per la Modernizzazione Amministrativa (AMA) del Portogallo.
Per quanto riguarda la città canadese di Kelowna, essa si è posta l’obiettivo di diventare la città digitalmente gestita meglio di tutto il Canada. Già prima dell’emergere di ChatGPT, l’amministrazione aveva iniziato a utilizzare strumenti di intelligenza artificiale per migliorare i servizi rivolti ai cittadini e dunque l’IA generativa è stata percepita come una naturale evoluzione di questo già avviato percorso[12].
Pensato nel 2022, il progetto principale si è focalizzato sull’accelerazione del processo di rilascio dei permessi edilizi, un’iniziativa promossa con l’obiettivo di rispondere alla crescente carenza abitativa che ha interessato la città. La soluzione sviluppata si articola in due strumenti complementari. Il primo, denominato “explore journey”, è un assistente digitale basato su un sistema RAG (Retrieval-Augmented Generation), una tecnologia che combina un modello linguistico di grandi dimensioni (LLM) con la ricerca di documenti specifici, in questo caso i regolamenti edilizi e i piani urbanistici della città. Questo approccio consente di fornire risposte accurate e contestualizzate alle domande dei cittadini sui permessi, riducendo il rischio di informazioni errate che potrebbero scaturire dall’utilizzo esclusivo di modelli generativi puri. Il secondo, l’”apply journey”, utilizza Copilot per guidare gli utenti attraverso l’intero processo di richiesta[13]. Di fondamentale importanza per la riuscita del progetto è stata l’inclusione nel team di lavoro sia di membri non tecnici, ma con conoscenze approfondite del comportamento degli utenti, sia degli stakeholder. In questo modo il personale interno, congiuntamente ai costruttori esterni, ha avuto la possibilità di testare le soluzioni durante lo sviluppo, contribuendo a plasmare e perfezionare il risultato finale[14]. Inoltre, sul fronte della sicurezza e della protezione dei dati, Kelowna ha sviluppato, in collaborazione con il Montreal Institute of AI, un proprio framework per l’IA Responsabile, il quale contiene le linee guida sulla gestione delle informazioni personali. L’amministrazione ha inoltre annunciato la pubblicazione di un registro pubblico dell’IA, per mostrare ai cittadini dove e come vengono utilizzati gli strumenti di intelligenza artificiale e da quali fonti provengono i dati, promuovendo così trasparenza[15]. A fronte di ciò, i risultati preliminari sono stati molto incoraggianti. Nel 2023, l’assistente digitale del municipio ha gestito circa 96.000 richieste dei cittadini, quasi nove volte di più rispetto all’anno precedente[16].
Differente è il caso giapponese. Il Governo Metropolitano di Tokyo (TMG) ha intrapreso l’adozione dell’IA generativa inserendola nel più ampio quadro della strategia nazionale giapponese “Society 5.0”. Questa iniziativa è stata lanciata nel 2016, con l’obiettivo di costruire una società che sfrutti l’intelligenza artificiale, i big data e altre innovazioni tecnologiche per migliorare la qualità della vita dei cittadini e affrontare le sfide sociali del paese[17]. Nel giugno 2023, la Governatrice Yuriko Koike ha annunciato che il TMG avrebbe iniziato ad utilizzare ChatGPT per supportare attività quali la redazione di testi, la generazione di idee e altre mansioni amministrative. Per realizzare questo obiettivo, l’amministrazione ha implementato una versione privata di ChatGPT e costituito un team incaricato di testare l’efficienza dello strumento e di elaborare linee guida per il suo utilizzo[18]. A differenza del caso canadese, orientato alla risoluzione di un problema specifico rivolto ai cittadini, l’approccio giapponese si è concentrato principalmente sull’efficienza interna e sulla definizione di un quadro normativo rigoroso, unendo dunque la sicurezza digitale al miglioramento dei servizi offerti ai cittadini. Per questo motivo la scelta del fornitore tecnologico è stata determinata dall’attenzione alla protezione dei dati. Il TMG ha optato per Microsoft Azure OpenAI Service con il modello GPT-3.5-Turbo, ottenendo la garanzia che i prompt generati dai dipendenti non sarebbero stati utilizzati per addestrare altri modelli di IA né conservati sui server del fornitore, in conformità con i rigorosi standard di sicurezza informatica dell’amministrazione[19].
Per il personale amministrativo che intendesse utilizzare l’IA, sono state stilate delle precise linee guida che prevedono un modulo di dichiarazione obbligatorio articolato in quattro principi fondamentali: non inserire informazioni altamente riservate; non generare testi che violino il diritto d’autore; verificare e validare in modo indipendente le risposte fornite dall’IA; indicare chiaramente quando i contenuti sono stati generati con l’ausilio dell’intelligenza artificiale[20]. Per garantire che il personale acquisisse familiarità con l’IA, il TMG ha investito significativamente nella sua formazione, sviluppando un portale online con corsi sugli strumenti digitali, incluse lezioni specifiche su ChatGPT, e impiegando “prompt engineer” come istruttori per sessioni di studio e workshop. Queste linee guida sono state pubblicate online dal TMG, e quest’ultimo partecipa attivamente a eventi pubblici per condividere la propria esperienza, dichiarando esplicitamente l’intenzione di fungere da riferimento per altre città giapponesi[21].
L’ultimo caso riguarda il Portogallo, il quale, essendo riconosciuto dagli indici OCSE come uno dei leader globali nel governo digitale, non è nuovo ad implementare e promuovere le trasformazioni digitali[22]. L’Agenzia per la Modernizzazione Amministrativa (AMA), organismo governativo responsabile della trasformazione digitale dei servizi pubblici, ha avviato alla fine del 2023 un progetto pilota per introdurre un assistente virtuale basato sull’IA generativa nel portale di autenticazione digitale dei cittadini. Il problema specifico che il progetto intendeva affrontare era la frustrazione dei cittadini costretti a recarsi più volte agli sportelli per ottenere un servizio, spesso perché privi della documentazione corretta. L’obiettivo era dunque creare un assistente virtuale capace di guidare gli utenti, indicando loro cosa fare e di quali documenti munirsi prima di presentarsi di persona agli uffici dedicati[23].
Per la riuscita del progetto è stata siglata una collaborazione tra l’AMA, Microsoft Azure OpenAI Services e Defined.AI e Daredata, due startup specializzate nell’elaborazione vocale e nella conversione testo-voce, utilizzate per la creazione di un avatar più sofisticato che simulasse l’interazione con una persona reale[24]. Una delle sfide principali è stata costruire fiducia in questo nuovo strumento. Molti stakeholder percepivano la tecnologia come estranea e temevano rischi di violazioni della privacy. Perciò l’AMA ha affrontato queste preoccupazioni in modo sistematico. Da un lato ha creato un database curato internamente per addestrare l’algoritmo, utilizzando manuali e dati tecnici, in modo tale da garantire una sempre maggiore precisione delle risposte. Infatti, i risultati sono stati rapidi: l’accuratezza delle risposte è passata dal 40% al 90% in sole due settimane. Dall’altro lato ha adottato un approccio trasparente con i cittadini, comunicando esplicitamente che si trattava di un progetto pilota, che l’interlocutore era una macchina e che potevano verificarsi errori[25]. Questo progetto pilota è stato un successo e l’AMA ha annunciato che intende espandere l’assistente virtuale ad altri servizi governativi, con particolare attenzione alla popolazione immigrata. Molti nuovi residenti, a causa delle barriere linguistiche e della complessità dei sistemi, trovano difficile interagire con i servizi pubblici portoghesi. L’avatar potrà comunicare in 15-20 lingue diverse, facilitando l’accesso a informazioni su fisco, previdenza sociale e sanità[26].
Come è possibile osservare, i tre casi esaminati condividono un elemento comune. L’adozione dell’IA generativa è stata infatti preceduta o accompagnata dalla definizione di linee guida, framework etici e procedure di governance. Questo vuole dimostrate che l’innovazione ha potuto dispiegarsi proprio perché inserita in un quadro di regole chiare. Inoltre, i meccanismi di controllo quanto più trasparenti possibile e le responsabilità chiaramente definite, hanno aiutato a costruire fiducia sia nei cittadini sia negli stessi dipendenti pubblici. Questa consapevolezza si riflette nel più ampio dibattito internazionale sulla regolazione dell’intelligenza artificiale. Dai principi OCSE adottati nel 2019 al processo di Hiroshima del G7, dall’AI Act europeo agli ordini esecutivi dell’amministrazione statunitense, governi e organizzazioni sovranazionali stanno elaborando approcci diversificati per governare lo sviluppo e l’utilizzo di queste tecnologie[27]. Tuttavia, nonostante gli sforzi per costruire quadri di riferimento comuni e globali, l’adozione dell’IA generativa nel settore pubblico continua a presentare sfide significative che richiedono una continua attenzione e risposte ai continui cambiamenti di questa nuova tecnologia.
Sfide aperte e prospettive future
Centrale è la questione riguardante la privacy e la protezione dei dati personali. Infatti, l’utilizzo dell’intelligenza artificiale generativa implica necessariamente il trattamento di grandi quantità di dati, i quali spesso includono informazioni personali sensibili degli stessi cittadini. I governi si trovano dunque a dover bilanciare da un lato lo sfruttamento del pieno potenziale dei dati nell’ottica di migliorare i servizi pubblici offerti e dall’altro la protezione dei diritti fondamentali degli individui. Come si evince dall’analisi dei tre modelli, le amministrazioni più avanzate hanno affrontato queste problematiche attraverso la creazione di ambienti protetti, la scelta di fornitori che garantiscano la non conservazione dei dati sui propri server e la definizione di regole chiare su quali informazioni possano essere inserite nei sistemi di IA[28].
Il tema del bias algoritmico e dell’equità nelle decisioni supportate dall’IA è strettamente connesso. In particolare, i dati che vengono usati per addestrare i modelli di linguaggio possono incorporare dei pregiudizi storici o distorsioni sistemiche. Nel contesto della pubblica amministrazione, dove le decisioni incidono sull’accesso e sulla qualità dei servizi, benefici e opportunità, il rischio di perpetuare o amplificare discriminazioni assume una rilevanza particolare. Per questo motivo, come emerge dai principi di un IA responsabile stilati dagli attori principali del settore, tra cui Microsoft, l’equità è uno dei requisiti fondamentali da rispettare. Tuttavia, la traduzione di questi principi in azioni e pratiche concrete non è immediata, in quanto richiede processi continui di verifica e al contempo competenze specifiche[29]. In quest’ottica, la formazione del personale pubblico rappresenta una delle sfide più concrete e immediate da affrontare. L’efficacia degli strumenti di IA generativa dipende in larga misura dalla capacità degli operatori di utilizzarli correttamente, comprenderne i limiti e avere un ruolo di supervisione critica sui risultati prodotti. L’esperienza giapponese, con i suoi programmi strutturati di formazione e la creazione di portali dedicati ai lavoratori, offre sì un modello di riferimento, tuttavia non facilmente replicabile, in quanto richiede investimenti significativi e un ripensamento delle competenze richieste ai dipendenti pubblici.
Un’ulteriore area di attenzione riguarda la dipendenza dai fornitori tecnologici. Le soluzioni di IA generativa attualmente disponibili sono sviluppate da un numero ristretto di grandi aziende tecnologiche, prevalentemente locate negli Stati Uniti. Per le pubbliche amministrazioni questo solleva interrogativi riguardo alla sovranità digitale, sulla continuità dei servizi e sulla capacità di negoziare condizioni contrattuali adeguate. L’approccio portoghese, che ha coinvolto startup locali specializzate unitamente ai grandi fornitori internazionali, suggerisce una possibile strategia da seguire con l’obiettivo di diversificare le competenze, mantenendo così un maggiore controllo sulle soluzioni adottate. Infine, la costruzione e il consolidamento della fiducia pubblica rappresentano una condizione strettamente necessaria per il buon funzionamento di qualsiasi progetto basato sull’intelligenza artificiale. I cittadini nutrono comprensibili timori e sospetti riguardo all’automazione di servizi che incidono sulla loro vita quotidiana, e la percezione di mancanza di trasparenza o di perdita del contatto umano può generare resistenze significative. Le esperienze analizzate mostrano l’importanza di comunicare in modo esplicito quando si sta interagendo con un sistema di IA, di mantenere sempre disponibile un canale di accesso a operatori umani e di rendere trasparenti i criteri con cui le tecnologie vengono impiegate.
In conclusione, non esiste un modello unico di adozione dell’IA generativa nella pubblica amministrazione. I modelli esaminati, pur riflettendo contesti istituzionali, culturali e tecnologici differenti, dimostrano che è possibile innovare la pubblica amministrazione, includendo questa nuova tecnologia in modo responsabile, partendo da progetti pilota ben definiti e costruendo progressivamente le competenze e la fiducia necessarie per un’adozione completa. La trasformazione in corso non si limita semplicemente all’introduzione di nuovi strumenti tecnologici, ma riguarda il rapporto stesso che intercorre tra tecnologia, amministrazione e cittadini. Dunque, se usata con criterio, l’IA generativa ha il potenziale di cambiare in meglio la sfera lavorativa dell’uomo, offrendo opportunità per ripensare i processi decisionali, ridurre le distanze tra istituzioni e cittadini e rafforzare la capacità dello Stato di rispondere ai bisogni collettivi[30].
[1] Apolitical e Microsoft; Transforming Public Sector Services Using Generative AI; 2024; p. 1.
[2] Ibidem.
[3] Ivi., p. 2
[4] Ibidem.
[5] Ivi., p. 3.
[6] Ibidem.
[7] Heise A; Generative AI and the Public Sector;2024; <https://wwps.microsoft.com/blog/ai-public-sector>.
[8] Kinshuck S; Leveraging generative AI in our work; Government Actuary’s Department; 2023; <https://actuaries.blog.gov.uk/2023/10/27/leveraging-generative-ai-in-our-work/>.
[9] Stryker C; Cos’è l’agentic AI?; IBM; <https://www.ibm.com/it-it/think/topics/agentic-ai>.
[10] Ibidem.
[11] Apolitical e Microsoft; cit., p. 4.
[12] Ivi., p. 6.
[13] Ibidem.
[14] Ivi., p. 7.
[15] Ivi., p. 8.
[16] Ibidem.
[17] Ivi., p. 9.
[18] Ibidem.
[19] Ivi., p. 10.
[20] Ibidem.
[21] Ivi., p. 11.
[22] Santiso C; Portugal’s Journey Towards Digital Progress; CAF; 2021; <https://www.caf.com/en/blog/portugals-journey-towards-digital-progress/>.
[23] Apolitical e Microsoft; cit., p. 12.
[24] Ivi., p. 13.
[25] Ibidem.
[26] Ivi., p. 14.
[27] Microsoft; Advancing AI Procurement and Adoption in the Public Sector; 2024; pp. 16-20.
[28] Apolitical e Microsoft; cit., pp. 13-14.
[29] Microsoft; Advancing AI Procurement and Adoption in the Public Sector; 2024; p. 15.
[30] Evergreen B; Autonomous Transformation – Creating a more human future in the era of Artificial Intelligence; Wiley; New Jersey; 2023; p. 209.

Conseguita la Laurea Triennale in Scienze Politiche con una tesi in Storia Contemporanea riguardante la rappresentazione del movimento del Sessantotto nell’industria cinematografica, attualmente frequenta la Magistrale in International Relations. Appassionato di storia e politica internazionale e dei mezzi di comunicazione che raccontano e influenzano la società. Atleta e maestro cintura nera secondo dan di Nippon Kempo, arte marziale giapponese.

