Quando l’algoritmo entra a Palazzo: IA e nuova capacità pubblica nell’era della regolazione europea
Dalla sperimentazione tecnologica alla responsabilità istituzionale: l’IA nella PA non è più una scelta tecnica, ma una decisione di governo. Con l’entrata in vigore dell’AI Act, il rispetto delle nuove regole europee diventa un obbligo di legge per le amministrazioni. La capacità delle istituzioni si misura sulla governance di un’infrastruttura cognitiva che orienta decisioni e servizi, richiedendo trasparenza e nuove competenze per tutelare l’interesse generale e la fiducia dei cittadini
1 Aprile 2026
Angelo Ientile
Avvocato, Fondazione “Serics”Security and Rights in CyberSpace
Giovanni Di Trapani
Ricercatore CNR-IRISS Istituto di Ricerca su Innovazione e Servizi per lo Sviluppo

Foto di real_ jansen su Unsplash - https://unsplash.com/it/foto/una-vista-dallalto-di-un-soffitto-di-vetro-in-un-edificio-hM3x6-9bdYw
L’intelligenza artificiale ha smesso da tempo di essere un tema riservato ai laboratori di ricerca o ai dipartimenti IT. Nel contesto della Pubblica Amministrazione, si sta progressivamente configurando come un fattore strutturale di trasformazione istituzionale, capace di incidere sui processi decisionali, sull’organizzazione del lavoro pubblico e, in ultima istanza, sul rapporto di fiducia tra Stato e cittadini. Non è più in gioco soltanto l’efficienza amministrativa, ma la qualità stessa dell’azione pubblica.
L’entrata in vigore del Regolamento europeo sull’intelligenza artificiale segna un punto di non ritorno in questo percorso. Per la prima volta, l’Unione europea riconosce esplicitamente che l’IA non è una tecnologia neutra, ma un potenziale amplificatore di potere pubblico, in grado di produrre effetti significativi sui diritti fondamentali e sull’equità delle politiche. Non a caso, molte delle applicazioni classificate come “ad alto rischio” riguardano direttamente l’operato delle amministrazioni: selezione del personale, concessione di benefici, valutazioni predittive, sistemi di supporto alle decisioni.
Questo cambio di paradigma impone una riflessione che va oltre la compliance normativa. L’AI Act, infatti, non può essere letto esclusivamente come un insieme di obblighi tecnici, ma come una richiesta implicita di maturità istituzionale. Alle amministrazioni pubbliche viene chiesto di dimostrare di saper governare sistemi complessi, opachi per natura, senza rinunciare ai principi di legalità, trasparenza e responsabilità che fondano l’azione amministrativa.
Negli ultimi anni, l’intelligenza artificiale è entrata nella Pubblica Amministrazione in modo frammentato. Progetti pilota, sperimentazioni isolate, soluzioni acquistate “chiavi in mano” hanno spesso preceduto una reale strategia pubblica sull’uso degli algoritmi. L’innovazione è avanzata per accumulo, più che per disegno. Questo ha prodotto una trasformazione silenziosa, nella quale sistemi algoritmici iniziano a orientare priorità, filtrare informazioni, suggerire decisioni, senza che tali funzioni siano sempre chiaramente riconosciute come parte integrante del potere amministrativo.
In questo senso, l’IA va compresa come una infrastruttura cognitiva. Non un semplice strumento digitale, ma un insieme di modelli, dati e procedure che organizzano il modo in cui l’amministrazione “pensa”, valuta e agisce. Come tutte le infrastrutture pubbliche, anche quella cognitiva produce effetti sistemici: può migliorare la capacità decisionale oppure cristallizzare bias, può aumentare la trasparenza oppure renderla più difficile, può rafforzare la fiducia o minarla profondamente.
Il nodo centrale è la responsabilità. Chi risponde di una decisione amministrativa supportata da un algoritmo? Come si garantisce la motivazione di un atto quando parte del ragionamento è incorporata in un modello statistico? Quali competenze deve possedere un dirigente pubblico per esercitare una supervisione effettiva e non meramente formale? Senza una risposta chiara a queste domande, il rischio è che l’IA venga utilizzata come scorciatoia tecnocratica: un modo per automatizzare la complessità, anziché governarla consapevolmente. Il quadro istituzionale italiano si colloca pienamente dentro questa tensione. Il ruolo dell’Agenzia per l’Italia Digitale e del Dipartimento per la Trasformazione Digitale è destinato a evolvere da funzione di coordinamento tecnico a presidio strategico dell’uso pubblico dell’IA. Non si tratta soltanto di emanare linee guida, ma di contribuire alla costruzione di una cultura amministrativa dell’algoritmo, capace di integrare competenze giuridiche, statistiche e informatiche.
Particolarmente rilevante è il livello territoriale. Regioni e amministrazioni locali operano spesso in contesti ad alta complessità, dove l’IA può supportare politiche ambientali, sanitarie, sociali e di rigenerazione urbana. In questi ambiti, l’intelligenza artificiale può diventare un alleato potente, ma solo se inserita in una cornice di governance esplicita. In assenza di tale cornice, la tecnologia rischia di rafforzare asimmetrie informative e di concentrare potere decisionale in forme difficilmente controllabili.
La tesi di fondo è che l’IA nella Pubblica Amministrazione debba essere trattata come una politica pubblica autonoma, non come un sottoprodotto della digitalizzazione. Ciò implica la definizione di modelli di governo dell’algoritmo, la predisposizione di capitolati “AI-ready”, l’introduzione di meccanismi di audit e valutazione degli impatti, nonché un investimento serio sulla formazione dei dirigenti e dei funzionari.
L’intelligenza artificiale non sostituirà lo Stato. Ma ne sta già modificando il modo di funzionare. La scelta che oggi si pone ai decisori pubblici non è tra innovazione e prudenza, bensì tra un’adozione subita, frammentata e opaca e una costruzione consapevole di un’infrastruttura cognitiva pubblica, trasparente, responsabile e orientata all’interesse generale. Nell’era della regolazione europea, questa non è più una questione tecnica: è una questione di governo.