Il ruolo delle API nella nuova economia dei dati aperti

Home Open Government Il ruolo delle API nella nuova economia dei dati aperti

Per sfruttare appieno tutte le potenzialità dei dati bisogna necessariamente andare verso l’interoperabilità: introdurre e adottare standard, formati e protocolli condivisi. Sono questi i requisiti necessari per avere dati di elevata qualità. È solo su dati di qualità che ha infatti senso fare investimenti, sviluppare e costruire nuovi servizi sfruttando ad esempio tutte le enormi potenzialità dell’IA e degli analytics

27 Febbraio 2020

P

Vincenzo Patruno

Data Manager - Istat

Photo by Muhammad Raufan Yusup on Unsplash - https://unsplash.com/photos/rYRE6ju-2K8


Sfruttare le potenzialità dei dati. È questo che da tempo sempre più aziende, start-up, società civile, organizzazioni, ma anche pubbliche amministrazioni stanno provando a fare, consapevoli che trattare opportunamente dati offre una straordinaria opportunità per ottimizzare processi, generare risparmi, creare nuovi servizi digitali.

La data economy

Sentiamo continuamente dire come i dati siano assimilabili ad un nuovo petrolio, una nuova ricchezza da sfruttare, e la digital transformation in atto un po’ ovunque ha come effetto quello di aumentare la tipologia e la quantità di dati disponibili in formato digitale. Il mondo attorno a noi sta infatti abbandonando la sua versione analogica, che lo caratterizzava fino a qualche decennio fa, e tutto prima o poi diventerà inevitabilmente digitale. Va da sé che l’enorme disponibilità di dati su web ha cambiato il modo in cui sfruttarne le indiscusse potenzialità, dando vita ad una vera e propria economia legata ai dati e più in generale alla conoscenza.

I bot e il controllo sui dati

Se in Africa ogni mattina un leone si alza per rincorrere una gazzella, sul web ogni giorno milioni di bot automatici si connettono a dati di ogni genere. Sono programmi software che in modo automatico visitano i siti web per indicizzare contenuti, recuperare news, dati social, documenti, immagini, dati strutturati, dati da sensori, dati satellitari. Molti di questi bot sono assolutamente legali, altri forse no, altri ancora sono al limite. Addirittura, si stima come il 51.8% di tutto il traffico Internet sia generato da bot.

Il caso Trenitalia e Trenìt

Nei mesi scorsi, tra le altre cose, abbiamo avuto modo di parlare della diatriba legale tra Trenitalia e Trenìt, azienda di base a Londra che eroga un interessante servizio ai viaggiatori attraverso l’omonima app. L’app Trenìt utilizza i dati in tempo reale provenienti dal portale viaggiatreno.it e per fare questo i dati vengono acquisiti attraverso un bot che preleva i dati relativi alla circolazione dei treni sulla rete ferroviaria italiana.

In un primo momento Trenìt ha dovuto sospendere il servizio in quanto accusata da Trenitalia di utilizzare i dati senza alcuna autorizzazione, considerandoli e trattandoli di fatto come open data. Ma la sentenza del tribunale di Roma dei primi di ottobre è stata molto chiara. Trenitalia è un organismo di diritto pubblico (è infatti interamente finanziata dallo Stato) e fornisce un servizio pubblico. Tra le altre cose, viene citata una direttiva europea (direttiva 1024/2019 dello scorso giugno) che promuove la diffusione e il riutilizzo di dati e documenti di imprese pubbliche.

Come funziona l’app Trenìt

È interessante a questo punto vedere come funziona l’app Trenìt. I dati in questione sono dati raccolti in tempo reale, cambiano in continuazione e sono relativi alla posizione di ogni singolo treno su una determinata tratta ferroviaria e all’eventuale ritardo accumulato. Non avrebbe senso scaricare tutti i dati sapendo che di lì a breve la situazione è destinata a cambiare. In realtà, quello che l’app Trenìt fa è di sfruttare alcune API nascoste che lo stesso viaggiatreno.it utilizza per accedere ai dati. 

Le API: cosa sono e come funzionano

Vediamo di capire meglio di cosa si tratta. Le API sono delle interfacce di programmazione che vengono utilizzate degli sviluppatori per accedere e utilizzare all’interno di applicazioni “client” dati e servizi disponibili lato “server”. Più comprensibilmente, le API vanno immaginate come un’URL che al posto di una pagina web restituisce dati. In genere è possibile passare dei parametri nell’URL, per cui effettuare una chiamata ad una API equivale di fatto ad interrogare un database. Quello che fa Trenìt è quindi interrogare in modo selettivo attraverso chiamate API i dati di Trenitaliasulla base dell’utilizzo che i propri utenti fanno dell’app.

Cosa si può fare con le API

Di conseguenza, avere un portale che consenta l’accesso ai dati attraverso API permette di fare essenzialmente due cose:

  • accedere ai dati in modo selettivo. È il caso che abbiamo visto in precedenza. Ciò vuol dire che attraverso le API non si scarica tutto il database, ma lo si interroga ogni qualvolta si intende ottenere un dato in particolare, passandogli nell’URL una serie di parametri. In questo modo si possono connettere vere e proprie applicazioni ai dati. Lo sviluppatore non si dovrà quindi preoccupare di gestire e manutenere dati, in quanto questa azione viene demandata completamente al data provider.  È una modalità adatta proprio per dati che cambiano spesso nel tempo, dati quindi in tempo reale o, più in generale, dati in near real time;
  • scaricare nuovi dati man mano che questi vengono pubblicati. È il caso in cui i dati vengono scaricati periodicamente in base alla loro frequenza di aggiornamento per essere memorizzati da qualche altra parte, ad esempio all’interno di un database per un loro utilizzo successivo, come l’integrazione con altri dati, analisi di serie storiche e così via.

Il valore dell’automazione per il riuso dei dati

In entrambi i casi, i dati vengono ottenuti interrogando le API attraverso programmi software. Questo consente di automatizzare completamente la fase di raccolta dati, dove l’automazione è un elemento fondamentale per industrializzare i processi di riuso dei dati, sfruttandone appieno le potenzialità.

Piano Triennale e Piattaforma Digitale Nazionale Dati

Ora, quando dico queste cose il pensiero va inevitabilmente al Piano Triennale per l’Informatica nella Pubblica Amministrazione e alla Piattaforma Digitale Nazionale Dati (PDND). In realtà quello che dovrebbe fare la PDND è già scritto, tra varie altre cose, proprio nel Piano Triennale: “[…]La PDND permetterà di sviluppare API standardizzate su basi di dati sempre aggiornate, per favorire la costruzione di applicazioni e servizi al cittadino”, sebbene leggendo il piano questo aspetto non sia spesso descritto in modo molto chiaro. Questo dovrebbe valere sia per i dati open delle pubbliche amministrazioni, dati quindi accessibili da tutti, che per quelli non open, per favorire una logica di condivisione dati e di interoperabilità tra PA, nonché di riuso soprattutto automatico di dati open da parte del mercato e della società civile.

European Data Strategy

Questo concetto è stato sottolineato con forza proprio nella European Data Strategy rilasciata da qualche giorno. Per sfruttare appieno tutte le potenzialità dei dati, potenzialità che altrimenti resterebbero inespresse, bisogna necessariamente andare verso l’interoperabilità dei dati. Che vuol dire introdurre e adottare standard, formati e protocolli condivisi. Sono questi i requisiti necessari per innalzare e avere dati di elevata qualità. È solo su dati di qualità che ha infatti senso fare investimenti, sviluppare e costruire nuovi servizi sfruttando ad esempio tutte le enormi potenzialità dell’IA e degli analytics.

Obiettivo: dati di qualità

Diventa pertanto cruciale il ruolo della PDND. Che dovrebbe così acquisire, normalizzare e standardizzare una parte dei dati delle nostre PA. Quello che serve è costruire processi continui di acquisizione e raffinamento dati dalle PA, processi che devono essere stabili, monitorati e che diventano centrali nella concezione stessa della piattaforma. Per garantire dati aggiornati dati man mano che questi cambiano ed evolvono nel tempo. Per garantire non solo standard elevati di qualità ma soprattutto per poter rivestire il ruolo di Single Source of Truth dei dati e dei dati open della PA.  Sia a livello nazionale che come nodo fondamentale nel processo di integrazione dei dati pubblici a livello europeo.