Dossier

Il valore dei dati

di redazione

Photo by Jingyi Wang on Unsplash

Valorizzare il patrimonio informativo pubblico, superandone la frammentazione, puntando su qualità e standardizzazione, agevolando l’accesso ai dati, favorendo la coerenza e la certezza delle informazioni e lo scambio di queste all’interno della PA. Questi obiettivi, certamente non inediti, hanno ottenuto però nell’ultimo anno una rilevanza strategica soprattutto grazie al Piano Triennale per l’informatica nella Pubblica Amministrazione, il documento emanato a maggio scorso che definisce per il periodo 2017-2019 le linee operative di sviluppo dell’informatica pubblica. Il capitolo “4.1. Dati della Pubblica amministrazione” definisce i dati come uno dei principali patrimoni digitali della PA individuando in essi una delle due Infrastrutture immateriali del nostro Paese. Viene evidenziato come le azioni tracciate per valorizzare l’immenso patrimonio dei dati pubblici porterà tra gli altri vantaggi un “ampliamento delle possibilità di analisi, ivi incluse la comprensione e la predizione di fenomeni sociali a supporto del processo di policy making e dello sviluppo di servizi al cittadino”. Si riconosce così il valore dei dati come elemento essenziale per supportare le decisioni strategiche delle amministrazioni e il governo dei territori. Al capitolo 9 il Piano Triennale individua poi uno strumento operativo per realizzare questi obiettivi: è il DAF (Data & Analytics Framework), un progetto che va nella direzione di raccogliere alcuni dati prodotti dalle PA su un’unica piattaforma Big Data al fine di valorizzarli e renderli funzionali anche al monitoraggio e al supporto alle decisioni.

Grande attenzione è riservata al tema degli open data. Sempre il capitolo 4 del Piano Triennale sottolinea come la qualità dei dati rilasciati in formato aperto non sia ancora a un buon livello, se non in pochi casi virtuosi, in particolare perché “la frequente mancanza di automazione e la conseguente modalità di aggiornamento manuale dei dati, la scarsa presenza di standard a livello nazionale e di API, l’adozione di svariate licenze, a volte tra loro incompatibili, sono fattori che ostacolano un più ampio riutilizzo dei dati”. Il tema quindi non è tanto la quantità di dati rilasciati, quanto la qualità. Infatti il numero di dataset pubblicati nel portale dati.gov.it (di cui nell’agosto è stata lanciata una nuova versione che aggiorna automaticamente i metadati dei vari cataloghi locali) ha già superato il target definito per il 2018 dal Piano Crescita Digitale. A inizio novembre eravamo a 18.360 dataset, contro i 15mila fissati dal Piano per il 2018, il 57% dei quali rilasciati da amministrazioni comunali. Nel 2017 diverse iniziative hanno puntato a individuare i dataset e le basi di dati da rilasciare come dati aperti. Un primo elenco piuttosto vasto è stato individuato nell’ambito dell’Open Government Partnership (OGP), attraverso un questionario inviato a circa 20 amministrazioni. A seguire, proprio all’interno del Piano Triennale, l’Allegato 5 presenta il “Paniere dinamico dataset open data”, che servirà come riferimento per azioni di monitoraggio sul rilascio degli open data a livello nazionale e regionale nel periodo 2016-2018. Infine AgID e Team digitale hanno fornito anche un “Elenco Basi di Dati Chiave” di particolare interesse per la collettività, da rendere disponibili come open data a livello nazionale, che restringe l’elenco fornito dal Paniere dinamico anche sulla base di richieste pervenute dalla collettività. Sempre in tema di open data, nell’agosto scorso è stata pubblicata la nuova versione delle linee guida per la valorizzazione del patrimonio informativo pubblico – anno 2017 e, contrariamente al passato, non è previsto un periodo limitato di consultazione pubblica, ma è sempre aperta la discussione con gli utenti.

A settembre, infine, è partita la task force sull’Intelligenza Artificiale (IA) promossa da AgID: un gruppo di 30 persone con profili multidisciplinari, affiancato da una community in continua crescita, che lavora per capire come mettere a sistema i big data delle pubbliche amministrazioni e avviare progetti pilota per sperimentare applicazioni e servizi basati sui nuovi strumenti di intelligenza artificiale.

Contenuti del Dossier