AI literacy: una sfida che la PA non può ignorare
Dai chatbot agli assistenti intelligenti: l’intelligenza artificiale è entrata anche negli uffici pubblici. Ma quanto più si diventa efficienti nel suo uso, tanto meno si è capaci di valutarla criticamente. Per spiegare questa transizione, il ricercatore Nicolas Spatola propone la metafora di due “prismi”: quello dell’affidabilità consapevole e quello dell’eccessiva fiducia. In un contesto pubblico, questa transizione non solo minaccia l’efficienza, ma anche la qualità dei servizi e la fiducia dei cittadini. Serve una nuova alfabetizzazione che promuova la metacognizione digitale e preservi la responsabilità umana
16 Aprile 2025
Andrea Tironi
Project manager Digital Transformation, Consorzio.IT

Foto di Thomas T su Unsplash - https://unsplash.com/it/foto/una-lavagna-con-un-sacco-di-scritte-su-di-esso-OPpCbAAKWv8
L’intelligenza artificiale è entrata prepotentemente nella nostra quotidianità, anche negli uffici pubblici. Dai chatbot per il supporto ai cittadini fino agli assistenti intelligenti per la scrittura di documenti, l’IA promette efficienza e automazione. Ma dietro questa promessa si nasconde una sfida ben più sottile: quella dell’alfabetizzazione all’intelligenza artificiale. E non stiamo parlando solo di saper usare gli strumenti, ma di capire come e quanto questi strumenti influenzano il nostro modo di pensare, decidere, agire.
Nick Potkalitsky, nel suo saggio “The Hard Problem of AI Literacy”, introduce una distinzione cruciale: quella tra i “problemi deboli” e il “problema difficile” dell’alfabetizzazione all’IA. I problemi deboli sono noti: quali competenze servono? Come si integra l’IA nel lavoro quotidiano? Come si gestisce il rischio di errori o dipendenza? Domande serie, ma risolvibili con formazione e buone pratiche.
Il problema difficile, invece, è più profondo. Coinvolge la nostra capacità di mantenere il giudizio critico mentre usiamo strumenti che sembrano pensare per noi. Potkalitsky, insieme al ricercatore Nicolas Spatola, identifica un fenomeno psicologico: più diventiamo efficienti nell’uso dell’IA, meno siamo capaci di valutarla criticamente. È il cosiddetto efficiency-accountability tradeoff: un equilibrio che si spezza facilmente, facendo scivolare il dipendente da un uso consapevole a una dipendenza silenziosa.
Due “prismi” per guardare all’IA
Per spiegare questa transizione, Spatola propone la metafora di due “prismi”:
- Il prisma dell’affidabilità consapevole: si usa l’IA come un supporto, si controllano i risultati, si mantiene il controllo.
- Il prisma dell’eccessiva fiducia: si smette di verificare, si dà per scontato che l’IA abbia ragione, si delega il giudizio.
I prismi prevedono stati diversi.
Prisma dell’Affidabilità
(Collaborazione Sana)
- Impiego Consapevole
- Utilizzo Strategico
- Mantenimento del Pensiero Critico
Prisma dell’Iper-Affidabilità
(Compiacenza verso l’Automazione)
- Dipendenza Inconsapevole
- Accettazione senza domande
- Riduzione delle Facoltà Critiche
Il passaggio tra i due non avviene con un clic, ma per gradi: prima si controlla ogni risultato, poi solo qualcuno, poi nessuno. Ed è lì che si perde la consapevolezza. In ambito pubblico, questo rischio è amplificato: un testo generato automaticamente può finire in un atto ufficiale senza adeguata verifica; una decisione può essere presa su dati interpretati da un algoritmo, senza che nessuno ne comprenda logiche e limiti.

Perché la PA deve preoccuparsene?
In un mondo dove le interazioni digitali tra cittadini e istituzioni sono sempre più mediate da tecnologie intelligenti, preservare la responsabilità e il pensiero critico è essenziale. Non basta saper usare ChatGPT o un sistema di workflow intelligente: bisogna capire come ci cambia il loro utilizzo. Questo vale per chi lavora agli sportelli, per chi redige documenti, per chi prende decisioni strategiche.
La posta in gioco non è solo l’efficienza, ma la qualità del servizio pubblico e la fiducia del cittadino. Se un sistema suggerisce una risposta sbagliata e nessuno se ne accorge, l’errore non è della macchina, ma dell’umano che ha abdicato al proprio ruolo.
Cosa possiamo fare?
Serve una nuova alfabetizzazione, che non si limiti all’uso tecnico, ma formi alla metacognizione digitale: la capacità di osservare come pensiamo mentre usiamo strumenti intelligenti. In concreto:
- Formazione mirata su IA e giudizio critico, anche con simulazioni di casi reali.
- Interfacce progettate per la trasparenza, che aiutino l’utente a capire quando sta delegando troppo.
- Organizzazione del lavoro che preveda momenti di riflessione sull’uso dell’IA, evitando l’automatismo cieco.
- Cultura della verifica, dove la revisione del lavoro assistito dall’IA diventa prassi.
Un invito alla consapevolezza
L’alfabetizzazione all’IA non è (solo) un tema tecnologico, ma una questione culturale. È la capacità di restare umani in un sistema che tende a semplificare, accelerare, automatizzare. Per la Pubblica Amministrazione, si tratta di un passaggio chiave: imparare a usare l’IA senza esserne usati. Restare critici, presenti, responsabili. In fondo, è questo che ci rende davvero pubblici: essere al servizio, con giudizio.
Fonte: The Hard Problem of AI Literacy: Breaking Down a Fundamental Challenge