AI literacy: una sfida che la PA non può ignorare

Home PA Digitale AI literacy: una sfida che la PA non può ignorare

Dai chatbot agli assistenti intelligenti: l’intelligenza artificiale è entrata anche negli uffici pubblici. Ma quanto più si diventa efficienti nel suo uso, tanto meno si è capaci di valutarla criticamente. Per spiegare questa transizione, il ricercatore Nicolas Spatola propone la metafora di due “prismi”: quello dell’affidabilità consapevole e quello dell’eccessiva fiducia. In un contesto pubblico, questa transizione non solo minaccia l’efficienza, ma anche la qualità dei servizi e la fiducia dei cittadini. Serve una nuova alfabetizzazione che promuova la metacognizione digitale e preservi la responsabilità umana

16 Aprile 2025

T

Andrea Tironi

Project manager Digital Transformation, Consorzio.IT

Foto di Thomas T su Unsplash - https://unsplash.com/it/foto/una-lavagna-con-un-sacco-di-scritte-su-di-esso-OPpCbAAKWv8

L’intelligenza artificiale è entrata prepotentemente nella nostra quotidianità, anche negli uffici pubblici. Dai chatbot per il supporto ai cittadini fino agli assistenti intelligenti per la scrittura di documenti, l’IA promette efficienza e automazione. Ma dietro questa promessa si nasconde una sfida ben più sottile: quella dell’alfabetizzazione all’intelligenza artificiale. E non stiamo parlando solo di saper usare gli strumenti, ma di capire come e quanto questi strumenti influenzano il nostro modo di pensare, decidere, agire.

Nick Potkalitsky, nel suo saggio “The Hard Problem of AI Literacy”, introduce una distinzione cruciale: quella tra i “problemi deboli” e il “problema difficile” dell’alfabetizzazione all’IA. I problemi deboli sono noti: quali competenze servono? Come si integra l’IA nel lavoro quotidiano? Come si gestisce il rischio di errori o dipendenza? Domande serie, ma risolvibili con formazione e buone pratiche.

Il problema difficile, invece, è più profondo. Coinvolge la nostra capacità di mantenere il giudizio critico mentre usiamo strumenti che sembrano pensare per noi. Potkalitsky, insieme al ricercatore Nicolas Spatola, identifica un fenomeno psicologico: più diventiamo efficienti nell’uso dell’IA, meno siamo capaci di valutarla criticamente. È il cosiddetto efficiency-accountability tradeoff: un equilibrio che si spezza facilmente, facendo scivolare il dipendente da un uso consapevole a una dipendenza silenziosa.

Due “prismi” per guardare all’IA

Per spiegare questa transizione, Spatola propone la metafora di due “prismi”:

  • Il prisma dell’affidabilità consapevole: si usa l’IA come un supporto, si controllano i risultati, si mantiene il controllo.
  • Il prisma dell’eccessiva fiducia: si smette di verificare, si dà per scontato che l’IA abbia ragione, si delega il giudizio.

I prismi prevedono stati diversi.

Prisma dell’Affidabilità

(Collaborazione Sana)

  • Impiego Consapevole
  • Utilizzo Strategico
  • Mantenimento del Pensiero Critico

Prisma dell’Iper-Affidabilità

(Compiacenza verso l’Automazione)

  • Dipendenza Inconsapevole
  • Accettazione senza domande
  • Riduzione delle Facoltà Critiche

Il passaggio tra i due non avviene con un clic, ma per gradi: prima si controlla ogni risultato, poi solo qualcuno, poi nessuno. Ed è lì che si perde la consapevolezza. In ambito pubblico, questo rischio è amplificato: un testo generato automaticamente può finire in un atto ufficiale senza adeguata verifica; una decisione può essere presa su dati interpretati da un algoritmo, senza che nessuno ne comprenda logiche e limiti.

Perché la PA deve preoccuparsene?

In un mondo dove le interazioni digitali tra cittadini e istituzioni sono sempre più mediate da tecnologie intelligenti, preservare la responsabilità e il pensiero critico è essenziale. Non basta saper usare ChatGPT o un sistema di workflow intelligente: bisogna capire come ci cambia il loro utilizzo. Questo vale per chi lavora agli sportelli, per chi redige documenti, per chi prende decisioni strategiche.

La posta in gioco non è solo l’efficienza, ma la qualità del servizio pubblico e la fiducia del cittadino. Se un sistema suggerisce una risposta sbagliata e nessuno se ne accorge, l’errore non è della macchina, ma dell’umano che ha abdicato al proprio ruolo.

Cosa possiamo fare?

Serve una nuova alfabetizzazione, che non si limiti all’uso tecnico, ma formi alla metacognizione digitale: la capacità di osservare come pensiamo mentre usiamo strumenti intelligenti. In concreto:

  • Formazione mirata su IA e giudizio critico, anche con simulazioni di casi reali.
  • Interfacce progettate per la trasparenza, che aiutino l’utente a capire quando sta delegando troppo.
  • Organizzazione del lavoro che preveda momenti di riflessione sull’uso dell’IA, evitando l’automatismo cieco.
  • Cultura della verifica, dove la revisione del lavoro assistito dall’IA diventa prassi.

Un invito alla consapevolezza

L’alfabetizzazione all’IA non è (solo) un tema tecnologico, ma una questione culturale. È la capacità di restare umani in un sistema che tende a semplificare, accelerare, automatizzare. Per la Pubblica Amministrazione, si tratta di un passaggio chiave: imparare a usare l’IA senza esserne usati. Restare critici, presenti, responsabili. In fondo, è questo che ci rende davvero pubblici: essere al servizio, con giudizio.

Fonte: The Hard Problem of AI Literacy: Breaking Down a Fundamental Challenge

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Su questo argomento

PA e intelligenza artificiale: perché dovremmo partire dall’automazione