L’adozione dell’Intelligenza Artificiale (IA) nelle pubbliche amministrazioni (PA) sta rapidamente aumentando in tutto il mondo, sollevando interrogativi su come governare efficacemente queste tecnologie per massimizzarne i benefici pubblici e minimizzarne i rischi.
In Italia, l’Agenzia per l’Italia Digitale (AGID) ha recentemente pubblicato il rapporto “L’intelligenza Artificiale nella Pubblica Amministrazione”, una indagine estensiva sui progetti di IA avviati dalle amministrazioni centrali e da enti di servizio pubblico a livello nazionale (AGID 2025b).
Questo rapporto – basato su un questionario strutturato somministrato nel 2024 – ha censito 120 progetti di IA in 45 enti pubblici italiani, fornendo un quadro prezioso sullo stato dell’arte dell’IA nella PA italiana. I risultati delineano tendenze chiave – come la prevalenza di soluzioni di machine learning tradizionale, chatbot e assistenti virtuali– e mettono in luce sia i potenziali benefici – maggiore efficienza operativa – sia le criticità riscontrate – carenze nella qualità dei dati e nella valutazione degli impatti.
In questo articolo si analizza criticamente il Rapporto alla luce della letteratura scientifica internazionale e delle raccomandazioni di organismi come OCSE e Unione Europea.
Verranno esaminati in particolare:
- le pratiche di governance dell’IA nella PA,
- l’impatto sociale e il valore pubblico delle applicazioni censite,
- la qualità e gestione dei dati,
- la sostenibilità ambientale delle soluzioni adottate e
- il quadro normativo, con un confronto tra il regolamento europeo AI Act (Artificial Intelligence Act 2024) e il recente disegno di legge italiano sull’IA (Disposizioni e deleghe al Governo in materia di intelligenza artificiale 2025).
Esamineremo quindi le esperienze documentate di altri Paesi europei, evidenziando best practice e lezioni apprese.
L’obiettivo è collocare punti di forza e debolezza del rapporto AGID nel contesto più ampio della ricerca e delle politiche pubbliche sull’IA, fornendo raccomandazioni basate sull’evidenza per un’adozione dell’IA nel settore pubblico che sia efficace, etica e allineata agli standard internazionali.
L’adozione dell’IA nella PA italiana: risultati del rapporto AgID 2025
Il rapporto AgID 2025 offre una panoramica dettagliata sull’uso dell’IA nella PA italiana a livello centrale. L’indagine ha coinvolto 108 organizzazioni, di cui 45 hanno dichiarato di aver avviato progetti basati su tecnologie di IA. In totale sono state mappate 120 iniziative, concentrate soprattutto presso enti operanti nel settore economico-finanziario, che comprende anche il settore assicurativo.
Gli obiettivi dichiarati di queste applicazioni riflettono le principali promesse dell’IA in ambito pubblico: nel 42% dei casi il fine primario è il miglioramento dell’efficienza operativa, seguito dal potenziamento della capacità di gestione e analisi dei dati (24%) e dal miglioramento dell’accesso ai servizi per cittadini e imprese (18%). Questi dati indicano che la PA italiana vede nell’IA uno strumento innanzitutto per ottimizzare processi interni e data analytics, e in misura minore per innovare la relazione con l’utenza (front-office). È significativo, inoltre, che molti progetti censiti siano in fase di esecuzione o pilota avanzato, mentre oltre un terzo sono ancora in stadio esplorativo di Proof of Concept o prototipazione preliminare. Ciò suggerisce che l’IA è ormai entrata nella pratica amministrativa, ma spesso tramite iniziative sperimentali che necessitano di consolidamento e scalabilità a regime.
Indice degli argomenti
Tipologie di IA e tecnologie prevalenti nei progetti della PA
Dal punto di vista tecnologico, il rapporto evidenzia una netta prevalenza di soluzioni di Machine Learning “tradizionale”, addestrate su dati strutturati per automatizzare analisi e decisioni ripetitive. Oltre la metà dei progetti utilizza tali tecniche, e solo marginalmente si riscontrano applicazioni di robotica autonoma avanzata. Parallelamente, è in crescita l’adozione di strumenti di Intelligenza Artificiale Generativa, specie per la produzione automatica di testi e l’interazione in linguaggio naturale. Coerentemente, oltre il 60% dei progetti censiti integra chatbot o assistenti virtuali per fornire informazioni e servizi tramite linguaggio naturale. Questo dato, se da un lato conferma un interesse diffuso per soluzioni conversazionali – anche trainato dalle recenti tendenze di mercato –, dall’altro suggerisce il rischio di adozioni poco allineate a reali esigenze funzionali. Altre applicazioni rilevate includono sistemi di supporto alle decisioni, che sfruttano algoritmi IA per analisi complesse e suggerimenti decisionali a beneficio dei decisori pubblici.
I dati impiegati nei progetti di IA nella PA
Un aspetto cruciale emerso dall’indagine riguarda i dati impiegati nei progetti di IA. Le amministrazioni attingono prevalentemente a basi di dati interne per addestrare i modelli, integrandole talvolta con fonti esterne. Si utilizzano dati eterogenei – da archivi documentali a dati gestionali e statistiche – e in molti casi dati non strutturati – come testi, immagini, audio – che richiedono avanzate capacità di gestione. Oltre la metà dei progetti adotta un’architettura centralizzata dei dati per il training, scelta motivata dall’esigenza di garantire coerenza, controllo e sicurezza nell’uso delle informazioni. Nonostante ciò, il rapporto AGID segnala una attenzione limitata agli standard di qualità dei dati: molti enti non assicurano pieno rispetto delle caratteristiche di qualità definite dallo standard internazionale ISO/IEC 25012 – quali accuratezza, completezza e consistenza dei dati. Tale carenza può compromettere l’affidabilità e l’efficacia delle soluzioni IA sviluppate, specialmente in ambiti dove la correttezza del dato è prerequisito essenziale per il corretto funzionamento degli algoritmi. In effetti, secondo il rapporto solo in pochi progetti la PA ha condotto valutazioni strutturate sulla qualità dei dataset, mentre più spesso il monitoraggio si limita a indicatori di volume o capacità di archiviazione dei dati.
Questo evidenzia un margine di miglioramento significativo nella data governance pubblica. Un ultimo elemento descrittivo riguarda l’impatto atteso e la misurazione dei risultati. Le amministrazioni riconoscono che l’implementazione di soluzioni IA può produrre benefici sia verso l’esterno – servizi pubblici più reattivi, di maggiore qualità e sostenibilità economica – sia all’interno – processi operativi più efficienti e supporto alle decisioni. Tuttavia, manca spesso una quantificazione sistematica di tali impatti: per circa l’80% dei progetti censiti non sono stati definiti KPI o indicatori specifici per misurare gli effetti ottenuti. Solo un quinto circa delle iniziative dispone di metriche di performance – come riduzione dei tempi di erogazione del servizio o del carico di lavoro amministrativo – utili a valutare i vantaggi concreti introdotti. Questa lacuna rischia di ostacolare una visione strategica di lungo periodo, poiché progetti privi di metriche di impatto rischiano di rimanere iniziative isolate e prive di una solida base per essere estesi o replicati.
Carenze valutative nei progetti di IA pubblici
La letteratura conferma che l’assenza di valutazione rigorosa dell’efficacia e del value for money delle soluzioni IA è un problema diffuso nel settore pubblico. Una recente sintesi dell’Ada Lovelace Institute ha sottolineato la scarsità di evidenze empiriche sugli impatti dell’IA nei servizi pubblici, notando che non esiste ancora una valutazione sistematica e completa degli strumenti di IA nel settore pubblico (Parker 2025). Anche nel Regno Unito il Parlamento ha rilevato la mancanza di meccanismi centralizzati per raccogliere e diffondere le lezioni apprese dai progetti pilota di IA governativi, raccomandando la creazione di strutture dedicate per condividere evidenze e buone pratiche (Committee of Public Accounts 2025). Il fatto che tali criticità emergano anche nel caso italiano suggerisce la necessità di rafforzare la cultura della valutazione e del monitoraggio degli impatti, così da assicurare che le sperimentazioni in IA portino a policy data-driven e a investimenti efficaci.
Governance dell’IA nella Pubblica Amministrazione
La governance dell’IA nella PA si riferisce all’insieme di regole, processi organizzativi e meccanismi di controllo volti ad assicurare che i sistemi di IA siano sviluppati e utilizzati in modo responsabile, etico ed efficace nel perseguimento degli obiettivi pubblici. Dal rapporto AGID e dalla letteratura internazionale emergono diversi elementi chiave di buona governance: leadership e strategia, chiari ruoli e competenze, trasparenza e rendicontabilità, coordinamento e condivisione di conoscenze.
In Italia, un primo tassello è rappresentato dalle strategie e linee guida nazionali. Ad inizio anno AGID aveva redatto una bozza delle Linee Guida per l’adozione dell’IA nella PA (AGID 2025a) – in consultazione sino al 18 marzo –, e la stessa AGID ha sviluppato, lo scorso anno, una Strategia Nazionale per l’IA (AGID 2024). Questo quadro strategico si sta ora evolvendo: il recente disegno di legge (DDL) n. 1146/2024 sull’Intelligenza Artificiale – di cui si dirà in seguito – prevede esplicitamente principi di trasparenza, controllo umano e accountability per l’uso dell’IA nel settore pubblico (Disposizioni e deleghe al Governo in materia di intelligenza artificiale 2025). Inoltre, il DDL rafforza l’assetto istituzionale individuando l’AGID e l’Agenzia per la Cybersicurezza Nazionale (ACN) quali autorità di riferimento per l’IA, in coordinamento con il Dipartimento per la Trasformazione Digitale. Si va dunque verso un modello in cui esiste un presidio nazionale sulla conformità ed eticità dei sistemi IA usati dalla PA, integrato con il futuro European AI Office previsto dall’AI Act europeo – che coordinerà le autorità nazionali competenti. Questa architettura multi-livello di governance dovrà garantire coerenza fra regole UE e iniziative italiane, evitando sovrapposizioni e vuoti normativi.
Un altro aspetto della governance è la definizione di ruoli organizzativi e competenze dedicate all’IA all’interno delle amministrazioni. Il rapporto AgID raccomanda di introdurre figure professionali specifiche, come l’AI Officer o il Data Steward, incaricate di presidiare rispettivamente gli aspetti strategici dei progetti IA e la qualità e la gestione dei dati. Si tratta di profili specialistici che molte amministrazioni oggi non hanno formalizzato, ma che risultano essenziali per dare continuità e visione strategica all’uso dell’IA nel settore pubblico. Tale indicazione è in linea con studi europei recenti: il Joint Research Centre (JRC) della Commissione UE ha elaborato un quadro di competenze e pratiche di governance per l’IA nella PA che enfatizza sia competenze tecniche, etiche e giuridiche per i funzionari, sia strutture organizzative adeguate – ovvero procedure, organi interni, relazioni interdipartimentali (Grimmelikhuijsen e Tangi 2024).
In particolare, la leadership di alto livello deve supportare l’innovazione IA e incorporarla nella pianificazione strategica, mentre una cultura organizzativa aperta all’innovazione facilita la sperimentazione controllata. Il JRC raccomanda inoltre di potenziare l’expertise interno sulla governance dell’IA – non solo tecnica, ma anche relativa a etica e diritto per l’appunto –, e di creare canali per la condivisione delle esigenze espresse dai cittadini e alla rilevazione dei livelli di preparazione digitale, al fine di orientare in modo più efficace i processi di miglioramento digitale nell’erogazione dei servizi pubblici.
Questa necessità di coordinamento è confermata anche dal Parlamento britannico, che ha evidenziato l’assenza di meccanismi di condivisione delle lezioni apprese dai pilot sull’IA tra i diversi dipartimenti, richiamando il governo a istituire centri di competenza o reti per colmare tale gap (Committee of Public Accounts 2025) (Parker 2025). Per l’Italia, potrebbe essere opportuno istituire un osservatorio nazionale che raccolga i casi d’uso nazionali di IA nella PA, ne valuti gli esiti e diffonda linee guida aggiornate.
Trasparenza algoritmica e fiducia pubblica
La trasparenza e la responsabilità algoritmica sono pilastri imprescindibili della governance pubblica dell’IA. Il rapporto AGID rileva che la quasi totalità dei progetti censiti rispettano il quadro normativo vigente, non includendo sistemi IA vietati o ad alto rischio secondo la classificazione dell’AI Act. Ciò denota un approccio prudenziale apprezzabile: la PA italiana attualmente evita applicazioni potenzialmente lesive di diritti fondamentali – come profilazioni automatiche in ambiti sensibili. Tuttavia, la fiducia dei cittadini verso l’IA governativa richiede anche un elevato grado di spiegabilità e controllo pubblico. In tal senso, il DDL sancisce l’“insostituibilità del decisore umano” – principio già affermato a livello europeo – rafforzando l’idea che l’IA debba supportare ma non rimpiazzare il giudizio umano nelle decisioni che incidono su persone. Altri Paesi europei stanno adottando misure analoghe: il Regno Unito ha sviluppato uno standard per la trasparenza algoritmica invitando i dipartimenti a dichiarare volontariamente gli utilizzi di sistemi automatizzati nelle loro attività (GPAI 2024). Questi strumenti di algorithmic transparency – spesso promossi anche dalla società civile – mirano a facilitare il controllo diffuso sull’IA pubblica, permettendo ai cittadini di sapere dove e come vengono impiegati algoritmi decisionali. La governance efficace dell’IA nella PA, dunque, non si esaurisce nel rispetto formale delle norme, ma richiede anche un impegno proattivo per la trasparenza, l’accountability e la partecipazione: elementi chiave per mantenere la legittimità pubblica di queste innovazioni.
Cooperazione internazionale e benchmarking nella governance dell’IA
Infine, vanno menzionati i meccanismi di cooperazione internazionale e benchmarking. L’OCSE ha varato, lo scorso anno, durante la Presidenza italiana nel G7, un Toolkit G7 per l’IA nel settore pubblico, che fornisce raccomandazioni pratiche ai governi per implementare l’IA. Tra le azioni suggerite vi sono: elaborare strategie dedicate nella PA, investire in talent management e formazione dei dipendenti pubblici, aggiornare le normative di procurement, garantire la qualità dei dati e predisporre sistemi di monitoraggio e valutazione dell’impatto (OECD 2024). Queste linee di intervento rispecchiano molti dei punti evidenziati dal rapporto AGID 2025 nelle sue conclusioni: superare i limiti tecnologici aggiornando le infrastrutture, integrare l’IA nei sistemi informativi esistenti, pianificare i progetti con obiettivi chiari e metriche fin dall’inizio, e sviluppare competenze interne mirate, anche tramite figure come l’AI Officer. In sintesi, la PA italiana può trarre vantaggio anche dalle esperienze estere e dalle piattaforme di cooperazione sovranazionale per affinare la propria governance dell’IA, creando un ecosistema in cui l’innovazione algoritmica sia allineata con i valori democratici, le norme vigenti e gli standard di eccellenza amministrativa.
Benefici sociali attesi dalle applicazioni IA nella PA
L’introduzione dell’IA nei servizi pubblici porta con sé promesse di miglioramento del benessere collettivo, ma anche potenziali rischi sociali che vanno compresi e mitigati. Il rapporto AGID 2025 dipinge un quadro prevalentemente positivo circa gli impatti sociali attesi: le soluzioni IA adottate nelle amministrazioni italiane mirano a rendere i servizi pubblici più accessibili, rapidi e personalizzati, innalzando la qualità delle prestazioni offerte a cittadini.
L’utilizzo di chatbot e gli assistenti virtuali possono facilitare l’orientamento dell’utenza nella fruizione di servizi – si pensi a risposte immediate a domande frequenti, o assistenza 24/7 –, mentre algoritmi di analisi predittiva possono aiutare a individuare più rapidamente bisogni emergenti o casi prioritari nell’erogazione di sussidi e interventi pubblici. Sul piano interno, l’IA supporta i dipendenti pubblici automatizzando compiti ripetitivi e fornendo analytics avanzate, con effetti positivi sull’efficienza operativa e quindi – indirettamente – sulla capacità delle amministrazioni di rispondere alle esigenze della collettività. In termini generali, dunque, l’IA viene vista come un fattore abilitante per innovazioni di servizio e per un settore pubblico più proattivo e data-driven.
Rischi etici e discriminatori delle applicazioni IA pubbliche
Tuttavia, un’analisi critica richiede di considerare anche i rischi sociali ed etici associati all’uso di sistemi algoritmici nel governo. Una prima area di attenzione riguarda la non discriminazione e l’equità. L’IA può infatti amplificare pregiudizi se addestrata su dati storici distorti: algoritmi impiegati in ambito di welfare o controllo fiscale potrebbero penalizzare in modo sproporzionato categorie vulnerabili se i dati o i criteri incorporano bias socio-economici o etnici. Un caso emblematico citato spesso in letteratura è lo scandalo degli affidi olandese: nei Paesi Bassi, un algoritmo di risk scoring per individuare frodi nei sussidi per i figli ha erroneamente etichettato migliaia di famiglie – soprattutto di origine straniera o a basso reddito – come fraudolente, causando la revoca indebita dei benefici e conseguenze drammatiche per la loro vita. Questo episodio, definito toeslagenaffaire, ha dimostrato come un sistema automatizzato privo di adeguate tutele possa produrre danni sociali devastanti, spingendo molte famiglie in povertà e minando la fiducia nelle istituzioni.
La lezione appresa a livello europeo è chiara: “i sistemi automatizzati possono essere disastrosi senza le giuste salvaguardie” (Heikkilä 2022). Per evitare simili derive, è fondamentale che le PA valutino preventivamente gli impatti sul rispetto dei diritti e dei principi di giustizia sociale. In pratica ciò si traduce nell’effettuare Valutazioni d’Impatto Algoritmico – sul modello delle Data Protection Impact Assessment previste dal GDPR – e nell’istituire comitati etici o organismi indipendenti di audit che supervisionino i progetti IA più delicati.
Attualmente, dal rapporto AGID risulta che quasi tutti i progetti italiani ricadono in categorie a basso rischio secondo l’AI Act e non toccano diritti fondamentali in modo significativo. Questa situazione riduce la probabilità di impatti sociali negativi gravi nel breve termine – ed è confortante rilevare una cautela intrinseca delle amministrazioni, che non utilizzano IA per profilazione invasiva di cittadini. D’altro canto, guardando al futuro, man mano che l’IA sarà applicata a funzioni pubbliche di maggiore sensibilità – si pensi alla giustizia, alla sanità, alle politiche attive del lavoro –, diventerà imprescindibile dotarsi di robuste misure di governo del rischio e di tutela dei diritti. Il DDL AI italiano già prevede il divieto di utilizzo di IA in alcuni ambiti sensibili con impatto su persone – come l’amministrazione della giustizia – se potenzialmente lesivi dei diritti, adottando così un approccio precauzionale rigoroso. Analogamente, l’AI Act europeo imporrà obblighi stringenti di fairness, trasparenza e supervisione umana per tutte le applicazioni classificate “ad alto rischio” – molte delle quali riguardano servizi pubblici essenziali.
Impatti occupazionali e responsabilità organizzativa
Un secondo profilo dell’impatto sociale concerne la sfera occupazionale e organizzativa. L’automazione intelligente può da un lato liberare i funzionari pubblici da incombenze routinarie a basso valore aggiunto, consentendo loro di dedicarsi ad attività a maggiore contenuto cognitivo o relazionale. D’altro lato, vi è il timore che l’IA possa sostituire alcuni ruoli amministrativi, generando resistenze interne e preoccupazioni sindacali. Per ora, i progetti censiti da AGID sembrano concepiti come strumenti a supporto del personale, non in sua vece, e anzi il rapporto raccomanda di investire nelle competenze dei dipendenti – formazione mirata e creazione di percorsi professionali in ambito IA – proprio per accompagnare il cambiamento organizzativo.
La letteratura sottolinea che l’accettazione dei dipendenti pubblici è un fattore critico: studi sperimentali hanno mostrato che la disponibilità dei manager pubblici a implementare sistemi di IA dipende dalla fiducia nei risultati e dalla chiarezza sui benefici, e che coinvolgere attivamente il personale nel design dei sistemi aumenta il tasso di successo (Grimmelikhuijsen e Tangi 2024). Inoltre, l’IA offre opportunità di migliorare la trasparenza e accountability interna, ma comporta anche la necessità di nuove forme di responsabilità nel caso di errori algoritmici.
La PA dovrà quindi aggiornare i propri protocolli e modelli organizzativi:
- chiarendo “chi risponde” di una decisione automatizzata errata,
- predisponendo canali di ricorso per i cittadini che si ritengano penalizzati da una decisione algoritmica,
- e assicurando sempre l’intervento umano correttivo nei casi controversi – il cosiddetto human-in-the-loop.
Tali principi sono in linea con gli Orientamenti etici per un’IA affidabile (High-Level Expert Group on AI 2019) e ora formalizzati dall’AI Act. Il DDL italiano, dal canto suo, insiste proprio sull’idea della “responsabilità umana indelegabile” in ambito pubblico, sancendo che l’ultima parola deve spettare a un funzionario umano, specie nelle decisioni che impattano su diritti o status di una persona. In prospettiva, ciò contribuirà a mantenere un controllo democratico sull’operato della macchina burocratica potenziata dall’IA.
In definitiva, l’impatto sociale delle applicazioni di IA nella PA dipenderà in larga misura da come tali applicazioni saranno progettate e governate. Se prevarrà un approccio attento ai valori etici – human-centric, rispettoso dei diritti, inclusivo – l’IA potrà effettivamente rafforzare la capacità pubblica di generare valore sociale, migliorando servizi, rendendo le politiche più mirate e predittive e aumentando la trasparenza. Se invece l’innovazione algoritmica sfuggisse ai controlli o venisse applicata con leggerezza in ambiti critici, i rischi per i cittadini – discriminazione, opacità decisionale, abuso di sorveglianza – potrebbero minare la fiducia nel settore pubblico. Le raccomandazioni internazionali convergono tutte sulla necessità di un’adozione responsabile: l’OCSE nei sui Principles on AI enfatizza equità, benessere, tutela dei diritti e dell’inclusione sociale come criteri fondamentali (OECD 2019). Il rapporto AGID, pur focalizzato più sugli aspetti tecnici e organizzativi, si inserisce in questo filone invocando un uso dell’IA “efficace, sostenibile e strategico” per potenziare il settore pubblico. L’auspicio è che tali principi guidino l’evoluzione futura dei progetti IA italiani, affinché il bilancio sociale netto sia pienamente positivo.
Qualità e gestione dei dati: standard internazionali, sicurezza e interoperabilità
I dati rappresentano il fondamento di qualunque applicazione di IA: la qualità, la coerenza e la disponibilità dei dati determinano in ultima analisi l’affidabilità dei modelli e la validità delle analisi condotte. Nel contesto della PA, la gestione dei dati pone sfide particolari legate sia alla frammentazione dei sistemi informativi legacy, sia ai requisiti normativi – si pensi alla protezione dei dati personali –, sia alla necessità di standard condivisi per favorire l’interoperabilità fra enti. Il rapporto AGID segnala chiaramente che molte amministrazioni italiane devono ancora compiere progressi significativi su questo fronte. Come già menzionato, dalle risposte raccolte emerge scarso ricorso a standard formali di qualità dei dati: benché esista lo standard ISO/IEC 25012 che definisce metriche di qualità dei dati, poche amministrazioni ne applicano sistematicamente i principi nelle proprie basi dati.
Questa constatazione allinea l’Italia a un problema diffuso internazionalmente: un rapporto 2025 del Committee of Public Accounts britannico ha evidenziato che “la scarsa qualità dei dati e la difficoltà di condivisione dei dati nel settore pubblico stanno mettendo a rischio l’adozione dell’IA”, aggiungendo che molte banche dati governative sono obsolete e non interoperabili (Committee of Public Accounts 2025). In altri termini, dati di bassa qualità equivalgono ad un’IA poco affidabile. Un modello addestrato su dati incompleti o errati fornirà risultati fuorvianti; sistemi differenti che non comunicano tra loro ostacolano progetti che richiedono integrazione di dataset multipli; e senza adeguate politiche di data cleaning e aggiornamento, le prestazioni degli algoritmi degradano nel tempo.
Un primo passo per la PA consiste dunque nel rafforzare la governance dei dati a monte dei progetti di IA. Ciò significa sviluppare linee guida interne ed effettuare audit sulla qualità dei propri dataset prima di utilizzarli per addestrare modelli. Significa adottare standard e schemi comuni: utilizzare formati aperti e codifiche standard per agevolare lo scambio dati tra enti (cd. interoperabilità semantica), implementare protocolli di sicurezza conformi alle norme ISO/IEC 27001 per proteggere l’integrità e la riservatezza delle basi informative, e riferirsi a classificazioni condivise per garantire coerenza. Il rapporto AGID rileva che oltre la metà delle amministrazioni coinvolte centralizza i dati in piattaforme ad hoc per il training, proprio allo scopo di garantire coerenza, controllo e sicurezza nella fase di alimentazione dei modelli. Questo approccio centralizzato è utile purché sia accompagnato da rigorose misure di gestione degli accessi e di qualità del dato.
Altri elementi essenziali della gestione dati nell’IA sono la sicurezza e la privacy. Alcuni progetti censiti dall’AGID utilizzano dati personali – come risulta dall’indagine, alcuni addestrano algoritmi su dati identificativi degli utenti, nonché su dati sintetici generati artificialmente. Questo comporta l’obbligo di stretta aderenza al GDPR e alle normative nazionali sulla protezione dei dati. Nel rapporto AGID, tra i fattori critici segnalati dai referenti progettuali, figurano proprio problematiche relative alla disponibilità e accessibilità dei dati, nonché una non perfetta comprensione delle potenzialità dell’IA da parte di tutti i soggetti coinvolti. Ciò lascia intendere che alcune amministrazioni possono incontrare ostacoli nell’ottenere dataset adeguati, come difficoltà legali nel riutilizzo di dati di altre PA, oppure limiti tecnici nell’estrarre dati dai propri sistemi interni. Affrontare questi problemi richiede interventi sia organizzativi sia normativi: sul piano organizzativo, il rapporto consiglia di colmare i gap di competenze tecniche formando il personale sul data management e magari introducendo figure esperte – i citati Data Steward –, in modo da migliorare la capacità di predisporre dati puliti, documentati e fair, ovvero privi di distorsioni per l’IA. Sul piano normativo, il legislatore può facilitare la condivisione dati tra enti pubblici rivedendo norme che oggi frammentano i patrimoni informativi. Il Regolamento UE su High-Value Datasets (HVD) (Commissione Europea 2022) incoraggia gli Stati a rendere disponibili in formato aperto alcuni dataset chiave della PA. L’Italia, anche tramite l’ISTAT, il principale produttore e referente per la diffusione degli HVD prodotti anche da altri enti pubblici, potrebbe mappare quali di questi dataset “a elevato valore” sono utili per addestrare sistemi IA pubblici – si pensi ai dati geospaziali, catastali, statistici, di mobilità – e assicurare che siano di alta qualità e facilmente accessibili per progetti innovativi, ovviamente nel rispetto delle tutele legate alla privacy.
Per garantire la qualità dei dati, esistono ormai diversi standard internazionali e best practice. Oltre al citato ISO/IEC 25012 per la qualità dei dati, va menzionato lo sforzo del comitato congiunto ISO/IEC JTC 1/SC 42, dedicato all’Intelligenza Artificiale, che sta sviluppando una serie di standard proprio sul data management per l’IA. Come riportato in un recente articolo, l’SC42 ha già prodotto standard su concetti, terminologia e framework di governance per l’IA, e sta completando una serie di specifiche sulla qualità dei dati per l’AI, incluse misure e linee guida (Diab e Mullane 2024). L’obiettivo è fornire riferimenti globali che aiutino le organizzazioni – pubbliche e private – a valutare e migliorare i loro dati prima e durante lo sviluppo di sistemi di IA. Inoltre, L’SC42 sta elaborando standard sulle implicazioni di governance dei dati, offrendo guide su come definire responsabilità e accountability nella gestione di dati e algoritmi. Questi standard, sebbene volontari, possono essere adottati come best practice anche nel settore pubblico italiano per allinearsi alle migliori soluzioni internazionali. La recente norma ISO/IEC 42001:2023 definisce un sistema di gestione per l’IA – sul modello degli ISO 9001 per la qualità – che include controlli sulla gestione dei dati, sui rischi e sul ciclo di vita dei modelli. Certificarsi o comunque ispirarsi a norme come la ISO 42001 potrebbe essere un segnale di eccellenza e trasparenza per un’amministrazione pubblica, dimostrando ai cittadini e agli auditor che l’ente gestisce l’IA in modo responsabile e verificabile. Del resto, lo stesso AI Act prevede un ruolo importante per gli standard tecnici armonizzati: i sistemi IA classificati ad alto rischio dovranno presumibilmente aderire a standard europei in materia di qualità dei dati, gestione del rischio e robustezza, per poter ottenere la marcatura CE ed essere utilizzati legalmente nell’UE. Investire oggi su processi di data management solidi significa quindi anche prepararsi al futuro quadro di conformità regolatoria.
In sintesi, la qualità e gestione dei dati rappresentano sia un punto debole attuale sia una leva di miglioramento cruciale per l’IA nella PA. Le raccomandazioni conclusive del rapporto AGID enfatizzano proprio la priorità di rafforzare la qualità e la gestione dei dati, assicurando standard elevati di accuratezza, completezza, affidabilità e interoperabilità, e colmando i gap tramite formazione tecnica e sviluppo organizzativo mirato. A livello operativo, ciò potrebbe tradursi in progetti trasversali di bonifica dei dati, nella creazione di cataloghi e in partnership con istituti come ISTAT e il Garante Privacy per definire metriche di qualità condivise. In definitiva, senza buoni dati non può esserci buona IA: è un mantra spesso ripetuto dagli esperti, che il settore pubblico italiano dovrà fare proprio per sfruttare appieno il potenziale dell’Intelligenza Artificiale in modo attendibile e sicuro.
Sostenibilità ambientale delle soluzioni IA
Un asse tematico emergente – e talvolta trascurato – nell’adozione dell’IA è quello della sostenibilità ambientale. L’addestramento e l’esecuzione di modelli di IA sofisticati – in particolare quelli basati su deep learning e le applicazioni di IA generativa – richiedono ingenti risorse computazionali, traducendosi in un consumo energetico significativo e, conseguentemente, in emissioni di CO₂ non trascurabili. Mentre l’IA può essere uno strumento per combattere il cambiamento climatico – si pensi a sistemi per ottimizzare i consumi energetici e a monitorare l’ambiente –, paradossalmente il suo utilizzo massiccio rischia di aggravare l’impronta ecologica dell’ICT se non si adottano misure correttive. Il rapporto AGID riconosce espressamente questa sfida, rilevando come le amministrazioni italiane mostrino “una buona attenzione” verso la necessità di mitigare gli effetti ambientali negativi dell’IA, anche se il livello attuale di consapevolezza e intervento è ancora insufficiente. In pochi progetti, ad esempio, si sono già adottate misure di IA “green”, come l’ottimizzazione degli algoritmi per ridurne il consumo o l’uso di infrastrutture cloud alimentate da energie rinnovabili. Ciò suggerisce un ampio margine di miglioramento nella diffusione di pratiche di IA sostenibile e nell’integrazione fin dalla fase progettuale di valutazioni di impatto ecologico.
La raccomandazione che emerge dalle conclusioni del rapporto è chiara: le amministrazioni dovrebbero privilegiare soluzioni di IA affidabili ma a basso impatto ambientale, evitando di rincorrere indiscriminatamente l’ultima tendenza tecnologica se questa comporta costi energetici elevati. In concreto, ciò significa che può essere preferibile utilizzare algoritmi di machine learning meno complessi ma più efficienti, ove adatti allo scopo, invece di modelli di deep learning il cui addestramento e deployment sono molto più dispendiosi in termini di calcolo. Il rapporto cita in particolare il caso delle applicazioni di IA generativa, oggi molto popolari: vengono descritte come “spesso più energivore e meno consolidate” rispetto a tecnologie di machine learning tradizionale, e quindi se ne sconsiglia un impiego esclusivo o non ponderato. L’International Energy Agency ha proiettato che entro il 2030 la domanda di elettricità per i data center sarà più che raddoppiata (IEA 2025). Questi dati spiegano perché nell’AI Act UE – caso pressoché unico tra le normative tecnologiche – sono stati inseriti riferimenti specifici alla efficienza energetica. In particolare, per i modelli di IA generativa di tipo fondazionale (detti GPAI, General-Purpose AI), il regolamento europeo impone ai fornitori di includere nella documentazione tecnica una valutazione del consumo energetico del modello (Artificial Intelligence Act 2024). Si tratta di un obbligo di trasparenza rivolto ai produttori di modelli di base che dovranno stimare l’energia utilizzata per l’addestramento. Inoltre, l’AI Act considera l’eccessivo consumo energetico come uno dei fattori che possono contribuire a qualificare un sistema di IA generativa come avente “rischio sistemico” per la società. Un modello con “rischio sistemico” sarà soggetto a obblighi aggiuntivi e monitoraggi più stringenti. Ciò fornisce un incentivo regolatorio ai fornitori di IA a mantenere il più basso possibile il consumo, pena ricadere in oneri maggiori.
Ulteriori iniziative normative e politiche confermano la centralità del tema: la Commissione Europea dovrà promuovere lo sviluppo di standard tecnici per l’efficienza energetica dell’IA e riferirà periodicamente sui progressi in tal senso. Già si discute di introdurre un etichettatura energetica per i sistemi di IA, analoga a quelle degli elettrodomestici, per informare gli utenti – inclusi gli enti pubblici acquirenti – sull’impatto ambientale dei prodotti AI in termini di CO₂ (White&Case 2025). Nel frattempo, si incoraggia il settore ad adottare codici di condotta volontari che includano obiettivi di programmazione energeticamente efficienti e metriche di sostenibilità. Sul fronte degli standard internazionali, come accennato l’ISO e l’IEC hanno già in cantiere una norma specifica sui requisiti di sostenibilità ambientale nell’AI, attualmente in fase di approvazione. Il comitato ISO/IEC SC42 ha esplicitamente inserito la sostenibilità tra le proprie aree di lavoro, sviluppando metodologie per valutare l’impatto ambientale dei sistemi di IA e allineare tali tecnologie agli Obiettivi di Sviluppo Sostenibile dell’ONU. È quindi evidente che vi sia un movimento convergente per far sì che l’IA del futuro sia non solo trustworthy ma anche green.
Per le pubbliche amministrazioni, questo significa integrare la valutazione dell’impatto ambientale nel ciclo di vita dei progetti IA. In fase di gara o di progettazione interna, includere criteri di efficienza tra i requisiti, preferendo soluzioni cloud con data center ad alta efficienza energetica, o algoritmi ottimizzati. Durante lo sviluppo, monitorare l’utilizzo di calcolo e cercare di minimizzarlo. In fase di esercizio, impostare soglie e metriche – come KPI verdi – per il consumo ad ogni richiesta elaborata, e compensare le emissioni residue con iniziative green. Il rapporto AGID mostra che al momento molte PA non hanno ancora adottato prassi del genere, ma alcune manifestano consapevolezza e intenzione di muoversi in quella direzione. Un segnale positivo è che anche in Italia, nei documenti strategici, si inizia a parlare di ICT sostenibile e di criteri ambientali nelle forniture digitali. Inoltre, la raccomandazione AGID di evitare approcci basati esclusivamente su IA generativa “energivora” indica chiaramente la volontà di scongiurare il rischio di implementare strumenti poco sostenibili. Questo equilibrio tra innovazione e sostenibilità dovrà essere perseguito attentamente nei prossimi anni, specie considerando l’enorme interesse suscitato dai modelli generativi: tali sistemi potranno avere usi utilissimi nella PA, ma andranno impiegati con cognizione di causa, tenendo presenti sia i costi computazionali sia l’impatto sulle infrastrutture esistenti.
In conclusione, la dimensione ambientale arricchisce il concetto di adozione responsabile dell’IA. Non basta che i sistemi siano efficaci e rispettosi dei diritti: devono anche inserirsi nel solco della transizione ecologica. La PA, dando il buon esempio in questo ambito, può esercitare una leadership esemplare stimolando anche il mercato verso soluzioni AI più sostenibili. Del resto, come sottolineato dall’AI Act, promuovere un’IA che sia insieme innovativa e sostenibile rientra negli obiettivi generali della strategia digitale europea. L’auspicio è che le amministrazioni italiane, forti anche delle raccomandazioni di AGID, integrino sin d’ora tali considerazioni nei loro progetti: misurare, ridurre e compensare l’impronta ecologica dell’IA sarà parte integrante della buona amministrazione nell’era dell’intelligenza artificiale.
AI Act europeo e DDL italiano: verso un quadro normativo coerente
L’ultimo asse di analisi riguarda l’intersezione tra l’AI Act e il disegno di legge italiano sull’IA attualmente in corso di approvazione, con riflessioni sull’impianto normativo complessivo che ne deriva. Si tratta di un tema cruciale, poiché la cornice regolatoria influenzerà direttamente sia la governance sia le modalità di adozione dell’IA nella PA.
L’AI Act è la prima legislazione orizzontale sull’Intelligenza Artificiale a livello globale, adottata dall’Unione Europea nell’agosto 2024 e destinata ad essere applicabile a partire dal biennio 2025-2026, con alcune disposizioni graduali. Esso introduce un approccio basato sul rischio: le applicazioni di IA vengono classificate per livelli di rischio – minimo, limitato, alto, inaccettabile – in base al loro impatto su sicurezza, diritti fondamentali e valori socio-economici. Sono proibiti alcuni usi considerati intrinsecamente lesivi – come sistemi di social scoring pubblico, sorveglianza biometrica di massa in tempo reale, manipolazione subliminale del comportamento – mentre per i sistemi ad alto rischio – in gran parte identificati in settori come istruzione, occupazione, servizi pubblici essenziali, infrastrutture critiche – si prescrivono requisiti stringenti di trasparenza, gestione del rischio, qualità dei dati, documentazione tecnica e supervisione umana. I sistemi a rischio limitato dovranno soddisfare solo obblighi minimi – come fornire avvertenze se generano contenuti artificiali – mentre quelli a rischio minimo sono in pratica lasciati liberi all’innovazione senza requisiti particolari oltre alle leggi esistenti. Nell’ambito pubblico, molte applicazioni rilevate dal rapporto AGID rientrano verosimilmente in categorie di basso rischio; solo una piccola frazione – circa il 5% – dei progetti censiti potrebbe configurare sistemi ad alto rischio secondo l’AI Act, come il caso di prototipi che coinvolgono profilazione di individui in ambito di lavoro e istruzione.
Ciò significa che la stragrande maggioranza dei casi d’uso attuali non sarà soggetta a certificazione e autorizzazioni speciali, ma dovrà comunque operare entro i principi generali di correttezza, trasparenza e sicurezza previsti dal Regolamento. È importante sottolineare che l’AI Act stabilirà anche strutture istituzionali: ogni Stato membro dovrà designare autorità nazionali di vigilanza sull’IA, coordinate da un European AI Office centrale. In Italia, con ogni probabilità, funzioni di questo tipo saranno assegnate a organismi esistenti, e il DDL in discussione ha anticipato alcuni aspetti designando appunto AGID e ACN quali soggetti di riferimento nazionali.
Il DDL italiano, esso rappresenta un tentativo di dotare l’Italia di una legislazione organica sull’IA in chiave nazionale, colmando aree non coperte dal regolamento UE e dettando regole puntuali in specifici settori. Approvato dal Senato nel marzo 2025 e ora all’esame della Camera, il DDL mira a coniugare sviluppo tecnologico e tutela dei diritti, in continuità e complementarità con l’AI Act. Le differenze di approccio tra i due testi normativi sono notevoli, anche se non confliggenti: l’AI Act adotta come detto un approccio risk-based proporzionato, mentre il DDL italiano abbraccia un approccio fortemente precauzionale e antropocentrico.
In pratica, il DDL impone divieti o obblighi generali anche in contesti a basso rischio, laddove reputati sensibili dal legislatore nazionale. Nel settore giustizia il disegno di legge vieta l’uso di sistemi di IA per valutare la colpevolezza o determinare pene, assicurando che ogni decisione giudiziaria resti di esclusiva competenza umana – principio del “giudice naturale” nell’era digitale. Nel settore sanitario, introduce limitazioni all’uso di IA per selezionare i candidati alle prestazioni sanitarie, al fine evitare discriminazioni algoritmiche.
Allo stesso tempo, il DDL stabilisce obblighi generalizzati di trasparenza e supervisione umana nella PA: come visto, ogni amministrazione dovrà pubblicare gli algoritmi utilizzati e garantire che il fattore umano resti centrale nei processi decisionali. Un altro elemento rilevante è l’introduzione di sanzioni penali specifiche per gli abusi dell’IA: il DDL, infatti, tipicizza reati nuovi. Prevede anche aggravanti di pena per reati tradizionali se perpetrati mediante l’ausilio dell’IA. L’AI Act lascia poi agli Stati la competenza di stabilire eventuali reati, analogamente a come avvenuto col GDPR. Da qui la complementarità: il DDL riempie lo spazio lasciato alla normazione nazionale dall’AI Act, occupandosi tra l’altro degli aspetti penali e delineando la governance nazionale.
Volendo sintetizzare il confronto, i due testi condividono l’obiettivo di garantire uno sviluppo responsabile dell’IA che salvaguardi i diritti fondamentali e la sicurezza. Entrambi enfatizzano trasparenza e controllo umano come principi cardine, sebbene declinati con intensità diversa. Le differenze principali risiedono nell’approccio normativo, ovvero precauzionale e basato sul rischio, nel campo di applicazione: il DDL è settoriale, mirato a contesti come PA, sanità, lavoro, giustizia; l’AI Act è orizzontale e tecnologico, applicabile a tutti i sistemi IA indipendentemente dal settore, e nei meccanismi di governance – il DDL istituisce o incarica autorità nazionali come AGID e ACN, l’AI Act crea un sistema di autorità nazionali coordinate a livello UE (Lombardi 2025). Inoltre, sul tema di IA generativa e deepfake, il DDL italiano è più severo: prevede obblighi informativi e addirittura sanzioni penali per chi utilizza deepfake fraudolenti, mentre l’AI Act si limita a richiedere che i contenuti sintetici siano etichettati come tali e che i modelli generativi rispettino requisiti di trasparenza e controllo dei dati di training.
Questa maggior rigidità del DDL riflette una scelta nazionale di presidiare con anticipo i fronti percepiti come più eticamente problematici, sfruttando la flessibilità lasciata dal regolamento UE. Ciò è legittimo, ma come notano gli esperti sarà fondamentale assicurare la piena compatibilità tra la futura legge italiana e il quadro europeo vincolante.
In particolare, la classificazione del rischio dovrà restare allineata: non avrebbe senso che un sistema ritenuto “basso rischio” in tutta Europa diventi inutilizzabile in Italia per un eccesso di divieti, o viceversa. Servirà anche coordinare le autorità: il DDL affida compiti ad AgID e ACN, ma poi queste dovranno interagire con il sistema europeo di notifiche e di sorveglianza previsto dall’AI Act. Una implementazione nazionale disallineata rischierebbe contenziosi e incertezza applicativa. Fortunatamente, la struttura modulare del DDL sembra tenere conto di ciò, esplicitando che intende integrarsi con l’AI Act senza sovrapporsi ad esso. Un parallelo calzante è quello con il GDPR: anche in quel caso, l’UE fissò una cornice unitaria e l’Italia la integrò con un decreto nazionale per i dettagli operativi e sanzionatori. Allo stesso modo, il DDL può essere visto come lo strumento per declinare in chiave nazionale i principi e requisiti del regolamento IA, adattandoli alle sensibilità e al contesto italiano.
Dal punto di vista della PA italiana, l’intersezione tra AI Act e legge nazionale comporterà oneri ma anche opportunità. Gli oneri consisteranno nel dover conformare i propri sistemi IA ai requisiti tecnici per quelli ad alto rischio e organizzare le procedure interne per rispettare i nuovi obblighi. Le opportunità risiedono però in una maggiore certezza giuridica e in una fiducia accresciuta da parte degli utenti: una volta che il quadro normativo sarà operativo, cittadini e imprese sapranno che i sistemi di IA usati dalla PA devono rispettare precisi standard di qualità e trasparenza, e potranno rivalersi se così non fosse.
Questo potrà aiutare ad aumentare l’accettazione delle soluzioni IA pubbliche. Inoltre, l’Italia – dotandosi di una sua legge pionieristica – potrebbe porsi come laboratorio normativo osservato anche da altri Paesi. Il DDL italiano rappresenta un unicum nel panorama UE, tanto che è stato definito da alcuni autori come “un ponte tra AI Act e contesto nazionale” (Lombardi 2025). Se ben calibrato, potrà fungere da modello di come uno Stato membro può bilanciare esigenza di innovazione e tutela valoriale nell’implementare l’AI Act. D’altro canto, una sovra-regolamentazione nazionale potrebbe rallentare l’adozione dell’IA nella PA per eccesso di burocrazia o timore di sanzioni: è un equilibrio delicato. La scelta del DDL di imporre obblighi anche per sistemi a basso rischio potrebbe risultare potenzialmente troppo rigida, laddove l’AI Act avrebbe consentito maggiore flessibilità. Sarà quindi importante monitorare l’attuazione pratica e, se necessario, aggiustare il tiro per evitare che la normativa nazionale scoraggi sperimentazioni utili senza effettivi benefici aggiuntivi per i diritti.
Armonizzazione tra AI Act e disegno di legge italiano
In conclusione, l’Italia si sta dotando di un framework normativo avanzato per l’Intelligenza Artificiale, che integra il regolamento europeo con disposizioni proprie su misura. Questo quadro, nel suo complesso, inciderà profondamente sul modo in cui la PA progetterà, acquisirà e utilizzerà sistemi di IA. Dal rapporto AGID si evince che finora le amministrazioni italiane hanno agito con prudenza – evitando usi rischiosi – pur in assenza di uno specifico obbligo normativo. Presto, con l’entrata in vigore dell’AI Act e del DDL nazionale, tale prudenza diventerà legge: molte pratiche volontarie dovranno trasformarsi in adempimenti formalizzati. La sfida sarà tradurre gli obblighi normativi in buone pratiche operative, senza farli percepire solo come oneri burocratici ma come parte integrante di un ecosistema di IA affidabile e human-centric.
Raccomandazioni per il futuro dell’IA pubblica
L’analisi condotta mette in luce un quadro composito sull’adozione dell’Intelligenza Artificiale nella Pubblica Amministrazione italiana alla luce del rapporto AGID 2025 e delle esperienze internazionali. Da un lato, emergono notevoli progressi: la PA italiana ha avviato numerosi progetti di IA, principalmente orientati a migliorare l’efficienza interna e la qualità dei servizi, allineandosi alle tendenze globali che vedono l’IA non più come una promessa futuribile ma una realtà operativa nei governi (Grimmelikhuijsen e Tangi 2024). Il censimento di 120 iniziative mostra un interesse concreto e diffuso verso strumenti di machine learning e algoritmi conversazionali, con alcune punte di innovatività pur se prevalentemente in chiave sperimentale. Si registra inoltre una adesione al principio di precauzione: quasi nessun progetto italiano ha finora esplorato applicazioni ad alto rischio o controverse, il che ha evitato incidenti etici o sociali e denota una certa maturità nel focalizzarsi su casi d’uso a rischio basso e valore aggiunto immediato. Il rapporto AGID evidenzia punti di forza quali la volontà delle amministrazioni di investire in formazione, di pianificare strategicamente i progetti e di integrare l’IA nei sistemi esistenti per massimizzarne l’efficacia. Questo indica che gli elementi abilitanti del successo – come una buona pianificazione, dati di qualità, tecnologie adeguate, competenze interdisciplinari – sono noti e condivisi dai responsabili pubblici.
Criticità e aree di miglioramento che non possono essere ignorate
Dall’altro lato, l’analisi critica ha fatto emergere alcune criticità e aree di miglioramento che non possono essere ignorate.
- In primis, la gestione dei dati: permangono problemi di frammentazione, scarsa qualità e difficoltà di accesso ai dataset, che rischiano di compromettere le prestazioni dei sistemi IA e frenare progetti potenzialmente utili. È urgente colmare questi gap investendo in data governance, interoperabilità e adeguamento delle infrastrutture legacy, come raccomandato tanto dal rapporto AGID quanto da organismi internazionali.
- In secondo luogo, la mancanza di metriche di impatto e di valutazioni sistematiche: per troppe iniziative IA non ne viene misurato rigorosamente il beneficio o tracciata l’esperienza. Ciò porta a dispersione di risorse e perdita di conoscenza istituzionale. La letteratura suggerisce la creazione di meccanismi strutturati per valutare e condividere i risultati dei progetti IA. L’Italia potrebbe istituire un osservatorio sull’IA pubblica che funga da polo di valutazione e diffusione di best practice.
- In terzo luogo, sebbene la governance etica sia in via di definizione, con normative ad hoc e linee guida, c’è da assicurare che principi come trasparenza, equità e controllo umano siano effettivamente incorporati in ogni fase dei progetti – dal design al deployment – e non rimangano enunciazioni astratte. Ciò richiederà formazione etica per i team tecnici, coinvolgimento di esperti giuridici e dei diritti umani nei comitati di progetto, e dialogo con stakeholder esterni – cittadini, accademia, società civile – per mantenere alta la guardia sui possibili impatti sociali.
- Un ulteriore punto critico emerso è la scarsa attenzione iniziale alla sostenibilità ambientale: qui c’è spazio per lanciare iniziative di “IA verde” nella PA, premiando nei bandi soluzioni energy-efficient o implementando dashboard interne che monitorino l’impronta carbonica dei servizi digitali. Dato che la transizione ecologica è una priorità nazionale ed europea, l’IA pubblica dovrà contribuire e non ostacolarla.
Il rapporto AGID 2025, nel quadro di queste riflessioni, risulta un documento di valore in quanto ha permesso di identificare chiaramente tali punti di forza e debolezza, fornendo al decisore pubblico una base empirica su cui intervenire. Le raccomandazioni operative presentate in chiusura del rapporto – dal rafforzare i dati e le competenze, all’innovare il procurement e pianificare sul lungo periodo – sono pienamente in linea sia con la letteratura scientifica più recente che con le raccomandazioni di organizzazioni internazionali.
L’OCSE e la Commissione Europea ribadiscono la necessità di upskilling nella PA, di leadership digitali forti e di un approccio sperimentale ma rigoroso all’IA. Il fatto che il rapporto AGID converga su queste stesse priorità conferisce ulteriore autorevolezza alle indicazioni fornite. Esso rappresenta dunque un utile strumento di policy: la sfida sarà ora attuarne i suggerimenti. Un segnale incoraggiante viene dal lato normativo: l’Italia, con il suo DDL, sta dimostrando di prendere sul serio l’argomento, dotandosi di una cornice legale sofisticata che accompagnerà le amministrazioni a elevare gli standard di gestione dell’IA. La coerenza tra raccomandazioni degli esperti, evidenze empiriche e interventi normativi è il presupposto migliore per un avanzamento efficace.
Osservazioni conclusive
In prospettiva, per assicurare un’adozione dell’IA affidabile, equa e produttiva nella PA italiana, si possono formulare alcune osservazioni conclusive.
- Primo, investire nelle fondamenta digitali: senza sistemi informativi interoperabili e dati di qualità, l’IA non potrà fiorire.
- Secondo, promuovere una cultura dell’innovazione responsabile: questo significa incoraggiare i dipendenti pubblici a sperimentare con l’IA, ma fornendo al contempo linee guida etiche chiare e formazione adeguata, così che ogni progetto nasca con incorporati i principi di accountability.
- Terzo, adottare un approccio comparativo e collaborativo: imparare dalle migliori pratiche europee, partecipare ai network internazionali, condividendo i successi ottenuti, in quanto tutto ciò accelera il ciclo di apprendimento.
- Quarto, mantenere uno sguardo olistico sugli impatti: per ogni nuova applicazione IA andrebbe valutato non solo il ROI operativo, ma anche l’impatto su cittadini, lavoratori, ambiente e contesto normativo, adottando una visione “a 360 gradi” coerente con gli SDGs e con i diritti costituzionali.
- Quinto, e più importante, mettere il cittadino al centro: l’IA nella PA deve essere al servizio del pubblico interesse. Ciò significa coinvolgere i cittadini con consultazioni sulla percezione delle tecnologie emergenti, garantire ricorso ed equità, e puntare a risultati che migliorino tangibilmente la vita delle persone.
In conclusione, l’Italia si trova in una posizione favorevole per passare da una fase pionieristica ad una fase matura nell’uso dell’Intelligenza Artificiale pubblica. Il rapporto AGID fornisce la mappa dei sentieri da percorrere e degli ostacoli da rimuovere. La ricerca scientifica e le esperienze europee offrono bussole e principi guida. Il legislatore sta approntando gli strumenti per governare il cambiamento. La sfida ora è attuare questi principi in pratica, con lungimiranza e coordinamento. Se l’operazione riuscirà, l’IA potrà divenire un alleato formidabile della PA italiana nel fornire servizi migliori, nel prendere decisioni basate sui dati e nell’affrontare le complesse sfide sociali ed economiche del nostro tempo, il tutto senza tradire la fiducia dei cittadini né i valori democratici. La rotta è tracciata: resta da navigare con equilibrio tra innovazione e responsabilità.
Bibliografia
AGID. 2024. «Strategia Italiana per l’Intelligenza Artificiale 2024-2026». https://www.agid.gov.it/it/agenzia/stampa-e-comunicazione/notizie/2024/07/22/pubblicato-il-documento-completo-strategia-italiana-lintelligenza-artificiale-2024#:~:text=documento%20integrale%20della-,Strategia%20Italiana%20per%20l%E2%80%99Intelligenza%20Artificiale%202024%2D2026,-.%C2%A0.
AGID. 2025a. «Bozza di linee guida per l’adozione di IA nella pubblica amministrazione». https://www.agid.gov.it/it/notizie/intelligenza-artificiale-in-consultazione-le-linee-guida-pa.
AGID. 2025b. L’intelligenza Artificiale nella Pubblica Amministrazione. https://www.agid.gov.it/it/notizie/ia-nella-pubblica-amministrazione-pubblicata-la-prima-indagine-di-agid-svolta-presso-le (14 giugno 2025).
«Artificial Intelligence Act». 2024. https://eur-lex.europa.eu/eli/reg/2024/1689/oj.
Commissione Europea. 2022. «REGOLAMENTO DI ESECUZIONE (UE) 2023/138 DELLA COMMISSIONE del 21 dicembre 2022 che stabilisce un elenco di specifiche serie di dati di elevato valore e le relative modalità di pubblicazione e riutilizzo».
Committee of Public Accounts. 2025. Use of AI in Government. UK Parliament. https://publications.parliament.uk/pa/cm5901/cmselect/cmpubacc/356/report.html.
Diab, Wael William, e Mike Mullane. 2024. «How the ISO and IEC Are Developing International Standards for the Responsible Adoption of AI». UNESCO. https://www.unesco.org/en/articles/how-iso-and-iec-are-developing-international-standards-responsible-adoption-ai.
Disposizioni e deleghe al Governo in materia di intelligenza artificiale. 2025. https://www.senato.it/leg/19/BGT/Schede/Ddliter/58262.htm.
GPAI. 2024. Algorithmic Transparency in the Public Sector: Case studies of repositories of public algorithms in Chile, the EU and the UK. Global Partnership on Artificial Intelligence.
Grimmelikhuijsen, Stephan, e Luca Tangi. 2024. «What Factors Influence Perceived Artificial Intelligence Adoption by Public Managers?» JRC Publications Repository. doi:10.2760/0179285.
Heikkilä, Melissa. 2022. «Dutch Scandal Serves as a Warning for Europe over Risks of Using Algorithms». Politico. https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/ (15 giugno 2025).
High-Level Expert Group on AI. 2019. Ethics Guidelines for Trustworthy AI. European Commission. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (4 maggio 2025).
IEA. 2025. Energy and AI. IEA, Paris. https://www.iea.org/reports/energy-and-ai (15 giugno 2025).
Lombardi, Antogiulio. 2025. «DDL AI italiano: un ponte tra AI Act e contesto nazionale». Agenda Digitale. https://www.agendadigitale.eu/cultura-digitale/ddl-ai-italiano-un-ponte-tra-ai-act-e-contesto-nazionale/ (15 giugno 2025).
OECD. 2019. «AI Principles». https://www.oecd.org/en/topics/ai-principles.html.
OECD. 2024. «G7 Toolkit for Artificial Intelligence in the Public Sector». https://www.oecd.org/en/publications/g7-toolkit-for-artificial-intelligence-in-the-public-sector_421c1244-en.html (26 marzo 2025).
Parker, I. 2025. «Do We Need a ‘What Works Centre’ for Public Sector AI?» https://www.globalgovernmentforum.com/do-we-need-a-what-works-centre-for-public-sector-ai/.
White&Case. 2025. «Energy Efficiency Requirements under the EU AI Act». https://www.whitecase.com/insight-alert/energy-efficiency-requirements-under-eu-ai-act.
[1] Riccardo Gentilucci (corresponding author), Ministero delle Infrastrutture e dei Trasporti – Ufficio di Coordinamento del Dipartimento per le Infrastrutture e le Reti di Trasporto, Via Nomentana 2, 00161 Rome – Italia. Email: riccardo.gentilucci@mit.gov.it; riccardo.gentilucci@uniroma1.it